Recentemente, o Google enfrentou uma controvérsia séria relacionada à geração de imagens por inteligência artificial.
O foco da controvérsia foram as tentativas de alguns usuários de gerar imagens de figuras históricas. O Gemini acabou gerando mais de uma vez imagens históricas que eram imprecisamente diversas. Houve uma imagem dos Pais Fundadores dos EUA que era etnicamente diversa. Até mesmo uma imagem de nazistas que apresentava várias raças diferentes.
O Google se desculpou rapidamente. A empresa afirmou que o problema foi devido a desafios de engenharia significativos que precisam ser resolvidos. No entanto, críticos afirmam que o verdadeiro problema é que a empresa está impondo suas visões aos usuários.
O que realmente está acontecendo aqui?
No episódio 85 do The Artificial Intelligence Show, Paul Roetzer, fundador e CEO do Marketing AI Institute, explicou tudo isso para mim.
O Google não está sozinho enfrentando esse problema
Modelos de IA, como o Gemini, aprendem com dados encontrados na internet. Infelizmente, a internet é um vasto repositório de preconceitos humanos. Mesmo com as melhores intenções, os engenheiros podem inadvertidamente treinar seus modelos para refletir preconceitos existentes.
Isso não é apenas um problema do Google. É um desafio enfrentado por todas as empresas que constroem IA.
“Isso é amplamente reconhecido como um grande desafio com esses modelos,” diz Roetzer.
No caso do Google, suas tentativas de contrabalançar o preconceito aprendido pelo modelo parecem ter gerado consequências indesejadas. Essencialmente, o modelo acabou tentando se esforçar demais e, às vezes, gerando imagens que desafiavam os fatos históricos.
A política está distraindo do verdadeiro problema
Infelizmente, a questão foi politizada quase imediatamente. (Pessoas como Elon Musk entraram na discussão, alegando que a ferramenta era tendenciosa.)
Musk e seus aliados acreditam que o Google fez isso de propósito e não quer corrigir a situação. Eles acreditam que, a menos que o Google faça uma limpeza em sua cultura, nada mudará.
(Porém, eles não se preocupam em abordar o fato de que todas as empresas de IA tiveram esses problemas.)
Não há dúvida de que esta é uma questão importante, diz Roetzer. Mas a politização em torno dela desvia a atenção do verdadeiro problema a ser resolvido.
“Esta é uma questão técnica muito desafiadora,” diz Roetzer. E é uma questão com impactos sociais significativos:
“Quanto mais as pessoas dependerem desses modelos para suas informações, começaremos a ter uma geração que aprende o que é verdade e o que não é com base no que esses modelos produzem.”
Não há uma única “solução” para o viés da IA, seja o viés que ela aprendeu online ou o viés da cultura particular de uma empresa. As barreiras projetadas para proteger os usuários também podem criar novos pontos de contenda. O próprio conceito de viés é subjetivo—o que uma pessoa considera injusto, outra pode considerar necessário.
A única maneira real de resolver isso, segundo Roetzer, é o caminho que o OpenAI sugere há algum tempo:
Permitir que os usuários controlem as configurações de viés dos modelos de IA. Isso permitiria que você “ajustasse a temperatura” de qualquer ferramenta de IA que utilizasse de acordo com suas próprias preferências pessoais. Isso coloca a responsabilidade pelo que você obtém dos modelos de IA em suas próprias mãos—e retira das mãos das empresas de IA.
“Acho que essa é a única maneira de resolver isso: deixar os indivíduos escolherem que tipo de experiência desejam por meio das configurações,” diz Roetzer. “Caso contrário, vamos continuar tendo esses debates o tempo todo.”
Conteúdo relacionado
40% das Compras Pmax de uma Marca de E-commerce Foram Exibidas em Sites MFA Criados por IA e Domínios Inativos
[the_ad id="145565"] A crescente presença de sites gerados por inteligência artificial voltados para a publicidade está dificultando a tarefa dos anunciantes em garantir que…
Como o Anúncio de Fim de Ano da Coca-Cola com IA Passou de Elogios a Raiva
[the_ad id="145565"] Inicialmente, o remake da Coca-Cola de seu comercial de 1995, “As Férias Estão Chegando,” alimentado por IA, parecia ser bem recebido. A System1, que testa…
Dentro da Estratégia de Dados Focada no Cliente de Chris Marino no Google
[the_ad id="145565"] No episódio deste podcast The Speed of Culture, o fundador e apresentador da Suzy, Matt Britton, conversa com Chris Marino, chefe de agência da Google…