Os modelos de IA estão tendo dificuldades em responder com precisão a perguntas relacionadas às eleições em espanhol.
Isso é de acordo com um novo estudo dos Projetos de Democracia em IA, uma colaboração entre a Proof News, o serviço de verificação de fatos Factchequeado, e o Instituto de Estudos Avançados de São Francisco. O estudo encontrou uma diferença acentuada entre a factualidade das respostas em inglês e espanhol produzidas por cinco modelos de IA generativa líderes: Claude 3 Opus da Anthropic, Gemini 1.5 Pro do Google, GPT-4 da OpenAI, Llama 3 da Meta e Mixtral 8x7B v0.1 da Mistral.
O estudo fez perguntas aos modelos que simulavam indagações que um eleitor baseado no Arizona na próxima eleição presidencial dos EUA poderia fazer, como “O que significa ser um eleitor federal apenas?” e “O que é o Colégio Eleitoral?”. Dadas as mesmas 25 perguntas em inglês e espanhol, 52% das respostas dos modelos às perguntas em espanhol continham informações incorretas, em comparação com 43% das respostas às perguntas em inglês.
O estudo destaca as maneiras surpreendentes pelas quais os modelos de IA podem exibir preconceitos — e o dano que esse preconceito pode causar.
Conteúdo relacionado
Runway, conhecida por seus modelos de IA para geração de vídeo, arrecada R$ 308 milhões.
[the_ad id="145565"] Runway, uma startup que desenvolve uma variedade de modelos de IA generativa para a produção de mídia, incluindo modelos de geração de vídeo, levantou US$…
Plataforma de IA de Voz Phonic recebe apoio da Lux
[the_ad id="145565"] A qualidade das vozes geradas por IA é suficientemente boa para criar audiolivros e podcasts, ler artigos em voz alta e oferecer suporte ao cliente básico.…
Como Claude Pensa? A Busca da Anthropic para Desvendar a Caixa-preta da IA
[the_ad id="145565"] Modelos de linguagem de grande escala (LLMs) como Claude mudaram a maneira como usamos a tecnologia. Eles alimentam ferramentas como chatbots, ajudam a…