Os modelos de IA estão tendo dificuldades em responder com precisão a perguntas relacionadas às eleições em espanhol.
Isso é de acordo com um novo estudo dos Projetos de Democracia em IA, uma colaboração entre a Proof News, o serviço de verificação de fatos Factchequeado, e o Instituto de Estudos Avançados de São Francisco. O estudo encontrou uma diferença acentuada entre a factualidade das respostas em inglês e espanhol produzidas por cinco modelos de IA generativa líderes: Claude 3 Opus da Anthropic, Gemini 1.5 Pro do Google, GPT-4 da OpenAI, Llama 3 da Meta e Mixtral 8x7B v0.1 da Mistral.
O estudo fez perguntas aos modelos que simulavam indagações que um eleitor baseado no Arizona na próxima eleição presidencial dos EUA poderia fazer, como “O que significa ser um eleitor federal apenas?” e “O que é o Colégio Eleitoral?”. Dadas as mesmas 25 perguntas em inglês e espanhol, 52% das respostas dos modelos às perguntas em espanhol continham informações incorretas, em comparação com 43% das respostas às perguntas em inglês.
O estudo destaca as maneiras surpreendentes pelas quais os modelos de IA podem exibir preconceitos — e o dano que esse preconceito pode causar.
Conteúdo relacionado
Anthropic transforma a abordagem da IA na educação: o Modo de Aprendizagem do Claude faz os alunos refletirem.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas novidades e conteúdo exclusivo sobre cobertura de IA de liderança no setor. Saiba mais……
Anthropic lança um plano de chatbot de IA para faculdades e universidades
[the_ad id="145565"] A Anthropic anunciou na quarta-feira que está lançando uma nova camada Claude para Educação, como resposta ao plano ChatGPT Edu da OpenAI. A nova camada é…
O artigo de 145 páginas da DeepMind sobre segurança em AGI pode não convencer os céticos.
[the_ad id="145565"] O Google DeepMind publicou na quarta-feira um documento exaustivo sobre sua abordagem de segurança para AGI, definida de forma ampla como uma IA capaz de…