Bolt42

Participe das nossas newsletters diárias e semanais para obter as últimas atualizações e conteúdos exclusivos sobre a cobertura de IA líder na indústria. Saiba Mais


O Google removeu sua proibição de longa data contra o uso de inteligência artificial para armamentos e sistemas de vigilância, marcando uma mudança significativa na posição ética da empresa sobre o desenvolvimento de IA que ex-funcionários e especialistas da indústria dizem que poderá reformular a forma como Silicon Valley aborda a segurança da IA.

A mudança, implementada discretamente esta semana, elimina partes-chave dos Princípios de IA do Google que explicitamente proibiam a empresa de desenvolver IA para armamentos ou vigilância. Esses princípios, estabelecidos em 2018, serviram como um marco da indústria para o desenvolvimento responsável de IA.

“O último bastião se foi. Agora é mão livre,” disse Tracy Pizzo Frey, que passou cinco anos implementando os princípios originais de IA do Google como Diretora Sênior de Gerenciamento de Produtos, Interações e IA Responsável no Google Cloud, em um post no BlueSky. “O Google realmente se destacou nesse nível de clareza sobre seus compromissos quanto ao que iria construir.”

Os princípios revisados removem quatro proibições específicas: tecnologias que podem causar dano geral, aplicações de armamentos, sistemas de vigilância e tecnologias que violam leis internacionais e direitos humanos. Em vez disso, o Google agora afirma que irá “mitigar os resultados indesejados ou prejudiciais” e se alinhar com “princípios amplamente aceitos de leis internacionais e direitos humanos.”

(Crédito: BlueSky / Tracy Pizzo Frey)

Google afrouxa ética de IA: O que isso significa para tecnologias militares e de vigilância

Essa mudança ocorre em um momento particularmente sensível, à medida que as capacidades da inteligência artificial avançam rapidamente e os debates sobre os limites apropriados para a tecnologia se intensificam. O timing levantou questões sobre as motivações do Google, embora a empresa mantenha que essas mudanças estavam em desenvolvimento há muito tempo.

“Estamos em um estado em que não há muita confiança na grande tecnologia, e cada movimento que parece remover barreiras cria mais desconfiança,” disse Pizzo Frey em uma entrevista ao VentureBeat. Ela enfatizou que limites éticos claros eram cruciais para construir sistemas de IA confiáveis durante seu tempo no Google.

Os princípios originais surgiram em 2018 em meio a protestos de funcionários sobre o Project Maven, um contrato do Pentágono envolvendo IA para análise de imagens de drones. Enquanto o Google eventualmente se recusou a renovar esse contrato, as novas mudanças poderiam sinalizar abertura para parcerias militares semelhantes.

A revisão mantém alguns elementos da estrutura ética anterior do Google, mas muda de proibições específicas para ênfase em gerenciamento de riscos. Essa abordagem se alinha mais de perto com padrões da indústria, como o NIST AI Risk Management Framework, embora críticos argumentem que oferece menos restrições concretas sobre aplicações potencialmente prejudiciais.

“Mesmo que a rigorosidade não seja a mesma, considerações éticas são tão importantes quanto na criação de uma boa IA,” observou Pizzo Frey, destacando como considerações éticas melhoram a eficácia e acessibilidade dos produtos de IA.

Do Project Maven à mudança de política: O caminho para a revisão da ética de IA do Google

Observadores da indústria afirmam que essa mudança de política pode influenciar como outras empresas de tecnologia abordam a ética da IA. Os princípios originais do Google estabeleceram um precedente para a autorregulação corporativa no desenvolvimento de IA, com muitas empresas buscando orientação do Google sobre a implementação responsável da IA.

A modificação dos princípios de IA do Google reflete tensões mais amplas na indústria de tecnologia entre inovação rápida e restrições éticas. À medida que a competição pelo desenvolvimento de IA se intensifica, as empresas enfrentam pressão para equilibrar o desenvolvimento responsável com as demandas do mercado.

“Eu me preocupo com quão rápido as coisas estão sendo lançadas no mundo, e se mais e mais barreiras estão sendo removidas,” disse Pizzo Frey, expressando preocupação sobre a pressão competitiva para lançar produtos de IA rapidamente sem uma avaliação adequada das consequências potenciais.

O dilema ético da grande tecnologia: A mudança de política do Google em IA estabelecerá um novo padrão na indústria?

A revisão também levanta questões sobre os processos de tomada de decisão internos no Google e como os funcionários poderão navegar considerações éticas sem proibições explícitas. Durante seu tempo no Google, Pizzo Frey estabeleceu processos de revisão que reuniam perspectivas diversas para avaliar os impactos potenciais das aplicações de IA.

Embora o Google mantenha seu compromisso com o desenvolvimento responsável da IA, a remoção de proibições específicas marca uma mudança significativa em seu papel anterior de liderança na definição de limites éticos claros para aplicações de IA. À medida que a inteligência artificial continua a avançar, a indústria observa como essa mudança poderá influenciar o cenário mais amplo do desenvolvimento e da regulação da IA.





    20 + quatro =




    Bolt42