A conversa sobre IA acaba de dar uma reviravolta dramática.
Após o avanço o3 da OpenAI, figuras proeminentes na área da IA começaram a discutir abertamente algo que parece ficção científica: a superinteligência artificial (ASI), ou sistemas de IA que superariam as capacidades humanas em todas as áreas imagináveis.
Mas o que está chamando a atenção:
Essas não são vozes marginais. Elas pertencem a alguns dos líderes mais influentes em IA, incluindo Sam Altman.
O que está acontecendo aqui? Estamos realmente à beira de uma IA super-humana?
Conversei com Paul Roetzer, fundador e CEO do Marketing AI Institute, sobre por que esse foco repentino na superinteligência merece nossa atenção no Episódio 129 do The Artificial Intelligence Show.
Um Fluxo de Sinais de ASI
Tudo começou quando Logan Kilpatrick, Líder de Produto na Google AI Studio, causou alvoroço no X (anteriormente Twitter) ao afirmar que “a trajetória direta para ASI está parecendo cada vez mais provável a cada mês”, mencionando até Ilya Sutskever.
Straight shot to ASI is looking more and more probable by the month… this is what Ilya saw
— Logan Kilpatrick (@OfficialLoganK) 30 de dezembro de 2024
Sutskever foi anteriormente Cientista Chefe na OpenAI antes de lançar a Safe Superintelligence (SSI), uma nova startup dedicada a ir “direto” à construção de superinteligência, em vez de fazer pausas em produtos de IA mais incrementais ao longo do caminho.
Em seguida, Sam Altman agitou as coisas com uma postagem de seis palavras:
i always wanted to write a six-word story. here it is:
___near the singularity; unclear which side.
— Sam Altman (@sama) 4 de janeiro de 2025
Outros funcionários da OpenAI também publicaram sobre ASI, incluindo o pesquisador Stephen McAleer, que disse:
I kinda miss doing AI research back when we didn’t know how to create superintelligence.
— Stephen McAleer (@McaleerStephen) 4 de janeiro de 2025
“Não é um novo conceito”, diz Roetzer, “mas a conversa acelerou dramaticamente.”
O Caminho para a Superinteligência
ASI tem sido um tópico de discussão em círculos muito restritos há décadas, diz Roetzer. O filósofo Nick Bostrom escreveu o livro seminal Superintelligence em 2014. Ray Kurzweil popularizou a ideia de “singularidade” anos antes.
No entanto, até recentemente, esse tópico não era muito discutido por líderes de tecnologia e negócios. No entanto, assim que o ChatGPT explodiu na cena, a conversa sobre AGI se tornou mais mainstream. Agora, apenas 12 a 18 meses depois, especialistas estão saltando de AGI para superinteligência.
Em maio de 2024, a DeepMind (creditada por ter cunhado o termo “AGI” em 2002) lançou um quadro delineando cinco níveis de progresso em IA. O Nível 5—superinteligência—descreve sistemas que podem superar 100% dos humanos em qualquer tarefa.
Apenas um mês depois, em junho de 2024, o ex-pesquisador da OpenAI, Leopold Aschenbrenner, previu a superinteligência para o final da década, com AGI possível já em 2027, em seu ensaio Situational Awareness. Mas até essas linhas do tempo agressivas estão começando a parecer conservadoras.
Sam Altman, CEO da OpenAI, também foi vocal em setembro de 2024 sobre a possibilidade de superinteligência no futuro próximo. Ele publicou uma postagem intitulada A Era da Inteligência na qual disse:
“Isso pode se tornar o fato mais consequente de toda a história até agora. É possível que teremos superinteligência em alguns milhares de dias (!); pode levar mais tempo, mas estou confiante de que chegaremos lá.”
Agora, no início de 2025, Altman lançou uma nova postagem intitulada Reflexões, onde sugere que a OpenAI está “agora confiante de que sabemos como construir AGI” e que devemos “voltar nosso foco além disso, para a superinteligência no verdadeiro sentido da palavra.”
Diz Roetzer:
“Na superinteligência, estamos agora além de qualquer humano—qualquer cientista, qualquer desenvolvedor, qualquer profissional de marketing, qualquer empreendedor, qualquer CEO. Eles não conseguem igualar o que a IA pode fazer.”
Olhando para o Futuro
Seria compreensível pensar que a superinteligência soa exagerada. Mas os grandes protagonistas que estão impulsionando os sistemas de IA mais avançados de hoje parecem estar dizendo que está chegando—e em breve. Quando mentes respeitáveis em IA na Google, OpenAI e novos laboratórios como a SSI convergem na ideia de que a superinteligência está próxima, é sábio, pelo menos, prestar atenção.
Se a ASI surgir nos próximos anos, permanecer distante ou acabar sendo um sonho distante, a conversa em si está moldando como bilhões de dólares são investidos em pesquisa, produtos e políticas de IA. Estamos em um território desconhecido. E se há uma coisa que aprendemos com a ascensão explosiva do ChatGPT, é que saltos dramáticos em IA podem ocorrer mais rapidamente do que qualquer pessoa antecipava.
Prepare-se. Superinteligência ainda pode soar como ficção científica, mas as vozes mais poderosas da IA do mundo estão nos dizendo que o futuro está mais próximo do que pensamos.
Conteúdo relacionado
CEO da Meta, Mark Zuckerberg, Elogia Trump na Chamada do Q4, Enquanto Receita Dispara
[the_ad id="145565"] Os números R$ 164,5 bilhões — Receita da Meta em 2024, aumentando 22% em comparação a 2023. A receita do Q4 foi de R$ 48,39 bilhões, com um aumento de 21%…
Perspectivas de Liderança e Crescimento com Michael Kassan da 3C Ventures
[the_ad id="145565"] Bem-vindo a este episódio do podcast Marketing Vanguard. Hoje, Jenny Rooney conversa com Michael Kassan, fundador e CEO da 3C Ventures. Nesta conversa,…
A IA Pode Superar os Humanos até 2027, OpenAI Planeja IA para Codificação Avançada e Meta Tem 1,3 Milhão de GPUs
[the_ad id="145565"] O Vale do Silício está agitado, e desta vez não é sobre a OpenAI. A DeepSeek enviou ondas de choque por todo o Vale do Silício, alterando as conversas sobre…