Os modelos de IA estão tendo dificuldades em responder com precisão a perguntas relacionadas às eleições em espanhol.
Isso é de acordo com um novo estudo dos Projetos de Democracia em IA, uma colaboração entre a Proof News, o serviço de verificação de fatos Factchequeado, e o Instituto de Estudos Avançados de São Francisco. O estudo encontrou uma diferença acentuada entre a factualidade das respostas em inglês e espanhol produzidas por cinco modelos de IA generativa líderes: Claude 3 Opus da Anthropic, Gemini 1.5 Pro do Google, GPT-4 da OpenAI, Llama 3 da Meta e Mixtral 8x7B v0.1 da Mistral.
O estudo fez perguntas aos modelos que simulavam indagações que um eleitor baseado no Arizona na próxima eleição presidencial dos EUA poderia fazer, como “O que significa ser um eleitor federal apenas?” e “O que é o Colégio Eleitoral?”. Dadas as mesmas 25 perguntas em inglês e espanhol, 52% das respostas dos modelos às perguntas em espanhol continham informações incorretas, em comparação com 43% das respostas às perguntas em inglês.
O estudo destaca as maneiras surpreendentes pelas quais os modelos de IA podem exibir preconceitos — e o dano que esse preconceito pode causar.
Conteúdo relacionado
Um laboratório chinês lançou um modelo de IA de ‘raciocínio’ para rivalizar com o o1 da OpenAI.
[the_ad id="145565"] Um laboratório chinês revelou o que parece ser um dos primeiros modelos de IA de "raciocínio" a rivalizar com o o1 da OpenAI. Na quarta-feira, DeepSeek,…
H, a startup de IA que arrecadou R$ 220 milhões, lança seu primeiro produto: Runner H para aplicações ‘agenitcas’
[the_ad id="145565"] H, a startup parisiense fundada por ex-alunos do Google, causou um grande alvoroço no verão passado quando, de forma inesperada, anunciou uma rodada de…
Esta Semana em IA: Comissão do Congresso alerta sobre AGI da China
[the_ad id="145565"] Oi, pessoal, bem-vindos ao boletim informativo regular de IA da TechCrunch. Se você deseja recebê-lo em sua caixa de entrada todas as quartas-feiras,…