O CEO da Anthropic, Dario Amodei, acredita que os modelos de IA atuais alucinam, ou seja, criam informações e as apresentam como verdadeiras, em uma taxa inferior à dos humanos, afirmou durante uma coletiva de imprensa no primeiro evento de desenvolvedores da Anthropic, Code with Claude, em San Francisco, na quinta-feira.
Amodei fez esse comentário no contexto de um ponto maior que estava abordando: que as alucinações da IA não são uma limitação no caminho da Anthropic para a AGI — sistemas de IA com inteligência ao nível humano ou superior.
“Realmente depende de como você mede, mas suspeito que os modelos de IA provavelmente alucinam menos do que os humanos, mas alucinam de maneiras mais surpreendentes”, disse Amodei, respondendo a uma pergunta do TechCrunch.
O CEO da Anthropic é um dos líderes mais otimistas da indústria sobre a perspectiva de que modelos de IA atingirão a AGI. Em um artigo amplamente divulgado que escreveu no ano passado, Amodei disse acreditar que a AGI poderia chegar já em 2026. Durante a coletiva de imprensa de quinta-feira, o CEO da Anthropic afirmou que estava vendo progresso constante nesse sentido, observando que “a água está subindo em todos os lugares.”
“Todos estão sempre procurando por esses bloqueios severos sobre o que [a IA] pode fazer”, disse Amodei. “Eles não estão em lugar nenhum. Não existe tal coisa.”
Outros líderes de IA acreditam que as alucinações representam um grande obstáculo para a consecução da AGI. No início desta semana, o CEO da Google DeepMind, Demis Hassabis, disse que os modelos de IA de hoje têm muitas “lacunas” e erram em muitas perguntas óbvias. Por exemplo, no início deste mês, um advogado representando a Anthropic foi forçado a se desculpar no tribunal após usar Claude para criar citações em um documento jurídico, e o chatbot de IA alucionou e errou nomes e títulos.
É difícil verificar a afirmação de Amodei, em grande parte porque a maioria dos benchmarks de alucinação compara modelos de IA entre si; eles não comparam modelos com humanos. Algumas técnicas parecem estar ajudando a reduzir as taxas de alucinação, como dar acesso a buscas na web para os modelos de IA. Separadamente, alguns modelos de IA, como o GPT-4.5 da OpenAI, têm taxas de alucinação notavelmente mais baixas em benchmarks em comparação com gerações anteriores de sistemas.
No entanto, há também evidências que sugerem que as alucinações estão realmente piorando em modelos de IA de raciocínio avançado. Os modelos o3 e o4-mini da OpenAI têm taxas de alucinação mais altas do que os modelos de raciocínio da geração anterior da OpenAI, e a empresa não entende muito bem o porquê.
Mais tarde na coletiva de imprensa, Amodei destacou que emissoras de TV, políticos e humanos de todas as profissões cometem erros o tempo todo. O fato de a IA também cometer erros não é um golpe em sua inteligência, de acordo com Amodei. No entanto, o CEO da Anthropic reconheceu que a confiança com que os modelos de IA apresentam informações falsas como fatos pode ser um problema.
Na verdade, a Anthropic fez uma quantidade considerável de pesquisas sobre a tendência dos modelos de IA a enganar humanos, um problema que parecia especialmente prevalente no modelo recém-lançado Claude Opus 4. O Apollo Research, um instituto de segurança que teve acesso antecipado para testar o modelo de IA, descobriu que uma versão inicial do Claude Opus 4 demonstrou uma alta tendência a conspirar contra humanos e enganá-los. O Apollo chegou a sugerir que a Anthropic não deveria ter lançado aquele modelo inicial. A Anthropic afirmou que desenvolveu algumas mitig ações que pareciam abordar os problemas levantados pelo Apollo.
Os comentários de Amodei sugerem que a Anthropic pode considerar um modelo de IA como AGI, ou equivalente à inteligência humana, mesmo que ainda alucine. Uma IA que alucina pode não atender à definição de AGI para muitas pessoas, no entanto.
Conteúdo relacionado
A programação completa de Side Events na TechCrunch Sessions: AI
[the_ad id="145565"] Prepare-se para potencializar sua experiência no TechCrunch Sessions: AI com a impressionante programação de Side Events que está agitando Berkeley durante…
Vercel lança um modelo de IA otimizado para desenvolvimento web.
[the_ad id="145565"] A equipe por trás do Vercel V0, uma plataforma de criação de sites impulsionada por IA, desenvolveu um modelo de IA que afirma ser excepcional em…
Os novos modelos de IA Claude 4 da Anthropic podem raciocinar por diversos passos.
[the_ad id="145565"] Durante sua conferência de desenvolvedores inaugural na quinta-feira, a Anthropic lançou dois novos modelos de IA que a startup afirma serem alguns dos…