Durante um jantar recente com líderes empresariais em San Francisco, um comentário meu provocou um clima tenso na sala. Não fiz perguntas que considerava especialmente impróprias: apenas perguntei se eles achavam que a inteligência artificial de hoje poderia alguma vez alcançar a inteligência humana (ou seja, AGI) ou além.
É um tópico mais controverso do que você pode imaginar.
Em 2025, não faltam executivos de tecnologia apresentando argumentos otimistas sobre como os modelos de linguagem de grande porte (LLMs), que impulsionam chatbots como ChatGPT e Gemini, poderiam alcançar inteligência em nível humano ou até superinteligência em um futuro próximo. Esses executivos argumentam que a IA altamente capaz trará benefícios sociais amplos — e amplamente distribuídos.
Por exemplo, Dario Amodei, CEO da Anthropic, escreveu em um ensaio que uma IA excepcionalmente poderosa poderia surgir já em 2026 e ser “mais inteligente do que um vencedor do Prêmio Nobel em vários campos relevantes”. Enquanto isso, o CEO da OpenAI, Sam Altman, recentemente afirmou que sua empresa sabe como construir uma IA “superinteligente”, e previu que isso poderia “acelerar massivamente a descoberta científica.“
No entanto, nem todos consideram essas afirmações otimistas convincentes.
Outros líderes de IA são céticos sobre a possibilidade de que os LLMs de hoje possam alcançar a AGI — muito menos a superinteligência — sem inovações novel. Esses líderes, que historicamente mantiveram um perfil baixo, têm começado a se manifestar mais recentemente.
Em um artigo este mês, Thomas Wolf, cofundador e diretor científico da Hugging Face, chamou algumas partes da visão de Amodei de “wishlist no melhor dos casos”. Informado por sua pesquisa de doutorado em física estatística e quântica, Wolf acredita que as inovações em nível de Prêmio Nobel não surgem de perguntas conhecidas — algo que a IA faz muito bem — mas sim de questionamentos que ninguém pensou em fazer.
Na opinião de Wolf, os LLMs de hoje não estão à altura da tarefa.
“Eu adoraria ver esse ‘modelo Einstein’ por aí, mas precisamos mergulhar nos detalhes de como chegar lá,” disse Wolf em uma entrevista ao TechCrunch. “É aí que começa a ficar interessante.”
Wolf disse que escreveu o artigo porque sentia que havia muito alvoroço em torno da AGI e não suficiente avaliação séria de como realmente chegar lá. Ele acredita que, como as coisas estão, há uma possibilidade real de que a IA transforme o mundo no futuro próximo, mas sem alcançar inteligência em nível humano ou superinteligência.
Grande parte da comunidade de IA ficou encantada com a promessa da AGI. Aqueles que não acreditam que é possível costumam ser rotulados como “anti-tecnologia”, ou de outra forma amargos e desinformados.
Alguns podem considerar Wolf um pessimista por essa visão, mas ele se vê como um “otimista informado” — alguém que deseja avançar a IA sem perder a noção da realidade. Certamente, não é o único líder de IA com previsões conservadoras sobre a tecnologia.
O CEO da Google DeepMind, Demis Hassabis, reportadamente disse a funcionários que, em sua opinião, a indústria pode estar até uma década longe de desenvolver AGI — notando que há muitas tarefas que a IA simplesmente não consegue fazer hoje. O Cientista Chefe de IA da Meta, Yann LeCun, também expressou dúvidas sobre o potencial dos LLMs. Falando na Nvidia GTC na terça-feira, LeCun disse que a ideia de que os LLMs poderiam alcançar AGI era “nonsense” e pediu por arquiteturas completamente novas para servir como fundamentos para a superinteligência.
Kenneth Stanley, um ex-pesquisador líder da OpenAI, é uma das pessoas que está investigando os detalhes de como construir IA avançada com os modelos de hoje. Ele agora é um executivo da Lila Sciences, uma nova startup que levantou $200 milhões em capital de risco para desbloquear a inovação científica por meio de laboratórios automatizados.
Stanley passa seus dias tentando extrair ideias originais e criativas de modelos de IA, um subcampo da pesquisa de IA chamado abertura. A Lila Sciences pretende criar modelos de IA que possam automatizar todo o processo científico, incluindo o primeiro passo — chegar a boas perguntas e hipóteses que, em última análise, levariam a novas descobertas.
“Eu meio que gostaria de ter escrito o [artigo de Wolf] porque realmente reflete meus sentimentos,” disse Stanley em uma entrevista ao TechCrunch. “O que [ele] notou foi que ser extremamente conhecedor e habilidoso não necessariamente leva a ter ideias realmente originais.”
Stanley acredita que a criatividade é um passo fundamental no caminho para a AGI, mas observa que construir um modelo de IA “criativa” é mais fácil de dizer do que fazer.
Otimistas como Amodei apontam para métodos como modelos de “raciocínio” de IA, que usam mais poder computacional para verificar suas respostas e responder a certas perguntas de maneira mais consistente, como evidências de que a AGI não está tão longe assim. No entanto, gerar ideias e perguntas originais pode exigir um tipo diferente de inteligência, diz Stanley.
“Se você pensar bem, o raciocínio é quase antitético à [criatividade],” acrescentou. “Modelos de raciocínio dizem: ‘Aqui está o objetivo do problema, vamos direto para esse objetivo’, o que basicamente impede que você seja oportunista e veja coisas fora desse objetivo, para que você possa, então, divergir e ter muitas ideias criativas.”
Para projetar modelos de IA verdadeiramente inteligentes, Stanley sugere que precisamos replicar algoritmicamente o gosto subjetivo humano por novas ideias promissoras. Os modelos de IA de hoje se saem muito bem em domínios acadêmicos com respostas claras, como matemática e programação. No entanto, Stanley aponta que é muito mais difícil projetar um modelo de IA para tarefas mais subjetivas que exigem criatividade, as quais não têm necessariamente uma resposta “correta”.
“As pessoas evitam [a subjetividade] na ciência — a palavra é quase tóxica,” disse Stanley. “Mas não há nada que nos impeça de lidar com a subjetividade [algoritmicamente]. É apenas parte do fluxo de dados.”
Stanley afirma que está contente que o campo da abertura está recebendo mais atenção agora, com laboratórios de pesquisa dedicados na Lila Sciences, Google DeepMind, e na startup de IA Sakana agora trabalhando no problema. Ele está começando a ver mais pessoas falarem sobre criatividade em IA, diz ele — mas acredita que ainda há muito trabalho a ser feito.
Wolf e LeCun provavelmente concordariam. Chame-os de realistas da IA, se quiser: líderes de IA que abordam a AGI e a superinteligência com perguntas sérias e fundamentadas sobre sua viabilidade. O objetivo deles não é menosprezar os avanços no campo da IA. Em vez disso, é iniciar uma conversa mais ampla sobre o que está impedindo os modelos de IA de hoje de alcançarem a AGI — e superinteligência — e buscar superar esses obstáculos.
Conteúdo relacionado
Prezent levanta $20 milhões para desenvolver IA para apresentações em slides.
[the_ad id="145565"] Prezent, uma startup que capacita clientes a criar apresentações em slides usando IA generativa, levantou US$ 20 milhões enquanto continua a desenvolver e…
Hugging Face apresenta plano de código aberto, desafiando as grandes empresas de tecnologia na luta pela política de IA da Casa Branca
[the_ad id="145565"] Participe das nossas newsletters diárias e semanais para as últimas novidades e conteúdo exclusivo sobre a cobertura de IA de líderes da indústria. Saiba…
Acadêmicos acusam startups de IA de cooptar a revisão por pares para fins de publicidade
[the_ad id="145565"] Uma polêmica está se formando em torno de estudos "gerados por IA" submetidos à ICLR deste ano, uma conferência acadêmica de longa data focada em IA. Pelo…