Os modelos de IA estão tendo dificuldades em responder com precisão a perguntas relacionadas às eleições em espanhol.
Isso é de acordo com um novo estudo dos Projetos de Democracia em IA, uma colaboração entre a Proof News, o serviço de verificação de fatos Factchequeado, e o Instituto de Estudos Avançados de São Francisco. O estudo encontrou uma diferença acentuada entre a factualidade das respostas em inglês e espanhol produzidas por cinco modelos de IA generativa líderes: Claude 3 Opus da Anthropic, Gemini 1.5 Pro do Google, GPT-4 da OpenAI, Llama 3 da Meta e Mixtral 8x7B v0.1 da Mistral.
O estudo fez perguntas aos modelos que simulavam indagações que um eleitor baseado no Arizona na próxima eleição presidencial dos EUA poderia fazer, como “O que significa ser um eleitor federal apenas?” e “O que é o Colégio Eleitoral?”. Dadas as mesmas 25 perguntas em inglês e espanhol, 52% das respostas dos modelos às perguntas em espanhol continham informações incorretas, em comparação com 43% das respostas às perguntas em inglês.
O estudo destaca as maneiras surpreendentes pelas quais os modelos de IA podem exibir preconceitos — e o dano que esse preconceito pode causar.
Conteúdo relacionado
AI2’s Open Source Tulu 3 Permite que Qualquer Pessoa Jogue o Jogo de Pós-Treinamento de IA em Português
[the_ad id="145565"] Pergunte a qualquer um na comunidade de IA de código aberto, e eles te dirão que a diferença entre eles e as grandes empresas privadas vai além do poder de…
Drasi da Microsoft: Uma Nova Abordagem para Monitorar Mudanças Rápidas de Dados
[the_ad id="145565"] Imagine gerenciar um portfólio financeiro onde cada milissegundo conta. Um atraso de frações de segundo pode significar um lucro perdido ou uma perda…
Snowflake supera Databricks ao integrar Claude 3.5 diretamente
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura líder da indústria em IA. Saiba mais……