DestaqueManchetesTecnologia

Jornal Folha de Goiás – O Google se compromete a não desenvolver armas de IA

A empresa divulgou diretrizes muito necessárias sobre sua abordagem em pesquisa de IA

O Google lançou um conjunto de princípios para orientar seu trabalho em inteligência artificial, cumprindo a promessa de fazê-lo no mês passado, após polêmica sobre seu envolvimento em um projeto de drones do Departamento de Defesa. O documento, intitulado “ Inteligência Artificial no Google: nossos princípios ”, não faz referência direta a este trabalho, mas deixa claro que a empresa não desenvolverá IA para uso em armas. Ele também descreve uma série de diretrizes gerais para IA, abordando questões como preconceito, privacidade e supervisão humana.

Embora os novos princípios proíbam o desenvolvimento de armamento de IA, eles afirmam que o Google continuará a trabalhar com os militares “em muitas outras áreas”. Falando a imprensa , um representante do Google disse que se esses princípios tivessem sido publicados anteriormente, a empresa provavelmente não se envolveram no projeto de drones do Pentágono, que usou AI para analisar imagens de vigilância. Embora este requerimento fosse para “propósitos não ofensivos” e, portanto, hipoteticamente permitido sob estas diretrizes, o representante disse que era muito próximo para o conforto – sugerindo que o Google irá protegê-lo com futuros contratos militares.

Além de proibir o desenvolvimento de IA para armas, os princípios dizem que o Google não trabalhará em projetos de vigilância de IA que violem “normas internacionalmente aceitas” ou projetos que violem “princípios amplamente aceitos de direito internacional e direitos humanos”. seus principais focos de pesquisa em IA são “socialmente benéficos”. Isso significa evitar preconceitos injustos; permanecendo responsável perante os seres humanos e sujeito ao controle humano; mantendo “altos padrões de excelência científica” e incorporando salvaguardas de privacidade.

“No Google, usamos a inteligência artificial para tornar os produtos mais úteis – desde e-mails que são livres de spam e fáceis de compor, até um assistente digital com quem você pode falar naturalmente, até fotos que aproveitam a diversão”, CEO do Google Sundar Pichai escreveu em um post no blog . “Reconhecemos que essa tecnologia poderosa levanta questões igualmente poderosas sobre seu uso. Como a IA é desenvolvida e usada, terá um impacto significativo na sociedade por muitos anos. Como líder em IA, sentimos uma profunda responsabilidade de acertar isso ”.

O Google tem enfrentado um escrutínio significativo sobre o uso da AI depois que seu trabalho para o Departamento de Defesa foi revelado em um relatório do Gizmodo no início deste ano. Milhares de funcionários assinaram uma carta aberta pedindo ao Google para cortar os laços com o programa, chamado Project Maven, e pelo menos uma dúzia de funcionários até mesmo se demitiram devido ao envolvimento contínuo da empresa.

O Google diz que planeja honrar seu contrato com o Pentágono, mas encerrará seu envolvimento com o Projeto Maven quando este expirar em 2019. Uma postagem no blog do CEO do Google Cloud, Diane Greene, descreveu o trabalho como simplesmente “identificação de objetos de baixa resolução usando IA”. No entanto, foi relatado que o trabalho foi, em parte, uma tentativa do Google de ganhar um lucrativo contrato com o Pentágono, estimado em US $ 10 bilhões. Acredita-se que a IBM, a Microsoft e a Amazon estejam competindo, e um representante do Google confirmou a imprensa que continuaria a buscar partes do contrato – se o trabalho em questão se encaixar nesses novos princípios.

A decisão do Google de descrever sua postura ética em relação ao desenvolvimento da IA ​​vem após anos de preocupação com a ameaça iminente de sistemas automatizados, bem como alertas mais sensacionais sobre o desenvolvimento de inteligência artificial geral – ou IA com inteligência em nível humano. No mês passado, uma coalizão de grupos de direitos humanos e tecnologia reuniu-se para publicar um documento intitulado A Declaração de Toronto, que apela a governos e empresas de tecnologia para garantir que a IA respeite os princípios básicos de igualdade e não-discriminação.

Ao longo dos anos, críticas e comentários sobre o desenvolvimento da IA ​​vieram de um amplo grupo, de pessimistas sobre o assunto como Tesla e o fundador da SpaceX, Elon Musk, a vozes mais razoáveis ​​na indústria como o cientista do Facebook Yann LeCun. Agora, as empresas do Vale do Silício estão começando a investir recursos mais significativos na pesquisa de segurança da IA, com a ajuda de organizações focadas na ética, como a Open AI sem fins lucrativos e outros grupos de pesquisa em todo o mundo.

No entanto, como demonstram os novos princípios éticos do Google, é difícil criar regras que sejam amplas o suficiente para abranger uma ampla gama de cenários, mas flexíveis o suficiente para não excluir trabalhos potencialmente úteis. Como sempre, o escrutínio público e o debate são necessários para garantir que a IA seja implantada de forma justa e socialmente benéfica. O Google terá que se acostumar a falar sobre isso.

 

 

Jornal Folha de Goiás – O Google se compromete a não desenvolver armas de IA
5 (100%) 1 vote
Tags

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *