Bolt42

Uma série de ensaios explosivos e entrevistas do ex-pesquisador da OpenAI, Leopold Aschenbrenner, estão gerando ondas de choque no mundo da IA com uma mensagem alarmante:

A AGI está chegando nesta década. E isso pode significar o fim do mundo como o conhecemos.

Aschenbrenner, um ex-membro da equipe de superalinhamento da OpenAI, afirma que é um dos poucos insiders da IA que agora têm “consciência situacional” de que máquinas superinteligentes mais inteligentes que os humanos serão uma realidade até 2030.

Seu enorme tese de mais de 150 páginas, intitulada “Consciência Situacional: A Década à Frente”, delineia as evidências por trás dessa alegação chocante e pinta um quadro urgente de um futuro possível onde máquinas superam os humanos…

E é um futuro para o qual muito poucos indivíduos, empresas e governos estão verdadeiramente preparados.

Além disso, essa falta de preparação pode criar sérios problemas para nações inteiras e economias, além da própria segurança internacional.

O que você precisa saber sobre estas previsões bombásticas?

Eu obtive informações de dentro com Paul Roetzer, fundador e CEO do Marketing AI Institute, no Episódio 102 do The Artificial Intelligence Show.

De prodígio a delator

Primeiro, um pouco de contexto sobre o homem que está soando o alarme da AGI.

Aschenbrenner é um gênio certificado, por um lado. Ele se formou como o orador da turma na Columbia aos 19 anos (depois de entrar na faculdade aos 15) e trabalhou em pesquisas sobre crescimento econômico no Global Priorities Institute de Oxford antes de se juntar à OpenAI.

Na OpenAI, ele fez parte da equipe de superalinhamento liderada pelo pioneiro da IA, Ilya Sutskever.

Mas tudo isso desmoronou em abril de 2024, quando Aschenbrenner foi demitido da OpenAI por supostamente vazar informações confidenciais. (Ele afirma que apenas compartilhou um documento de segurança da IA com pesquisadores externos, e não material sensível da empresa.)

Independentemente disso, o incidente o libertou para discutir tudo relacionado à AGI e superinteligência. E dado seu pedigree, o mundo da IA está prestando atenção.

“Esta é uma pessoa que tem um histórico comprovado de análise profunda e aprendizado rápido sobre os assuntos,” diz Roetzer.

O próprio tópico também despertou o interesse de Roetzer porque se alinha estreitamente com um cronograma que ele delineou para o desenvolvimento da IA recentemente.

O caminho para a superinteligência

O cerne do argumento de Aschenbrenner repousa em algo chamado leis de escalonamento.

Essas leis descrevem como, à medida que damos aos modelos de IA mais poder computacional e tornamos seus algoritmos mais eficientes, vemos saltos previsíveis em suas capacidades.

Ao traçar essas linhas de tendência, Aschenbrenner afirma que vamos de “habilidades de um estudante do ensino médio inteligente” do GPT-4 a um “salto qualitativo” em inteligência que torna a AGI “assustadoramente plausível” até 2027.

Mas não vai parar por aí. Uma vez que atinamos a AGI, centenas de milhões de sistemas de IA de nível humano poderão rapidamente automatizar descobertas de pesquisa e alcançar habilidades “vastamente superhumanas” em um fenômeno conhecido como “explosão de inteligência.”

A corrida armamentista da AGI de trilhões de dólares já começou

Segundo Aschenbrenner, a corrida pela AGI já está em andamento.

Ele afirma que a “aceleração techno-capital extraordinária foi colocada em movimento” enquanto gigantes da tecnologia e governos buscam adquirir e construir as vastas quantidades de chips, data centers e infraestrutura de geração de energia necessárias para construir modelos de IA mais avançados.

Ele continua:

“À medida que a receita da IA cresce rapidamente, trilhões de dólares serão investidos em GPU, data centers e expansão de energia antes do final da década.”

Mas o progresso desenfreado não vem sem grandes riscos.

Aschenbrenner alega que laboratórios de IA estão tratando a segurança como uma “após-pensamento,” tornando-os alvos fáceis para roubo de propriedade intelectual por adversários estrangeiros.

Pior, ele afirma que o superalinhamento—controlar de forma confiável sistemas de IA mais inteligentes que nós—continua sendo um problema não resolvido. E uma falha em resolver isso antes de uma explosão de inteligência “pode ser catastrófica.”

A última melhor esperança

Para evitar esse destino, Aschenbrenner pede um grande esforço governamental liderado na AGI.

Nenhuma startup pode lidar com a superinteligência, diz ele. Em vez disso, ele imagina que os EUA embarquem em um projeto de AGI na escala das missões lunares Apollo—desta vez com trilhões em financiamento.

Fazendo isso, Aschenbrenner argumenta, será uma questão de segurança nacional na próxima década, com a própria sobrevivência do mundo livre em jogo.

“Ele diz que superinteligência é uma questão de segurança nacional, e eu concordo 100%,” diz Roetzer. “Se eu fosse o governo dos EUA, estaria agressivamente colocando um plano em prática para gastar trilhões de dólares nos próximos cinco a dez anos para abrigar toda a infraestrutura nos Estados Unidos.”

Mas o tempo está passando, diz Aschenbrenner, para levar isso a sério e fazer certo.

Um aviso sóbrio

Embora as previsões de Aschenbrenner possam parecer exageradas, Roetzer diz que não podemos nos dar ao luxo de ignorá-las.

“Eu sei que é muito, e é meio opressor, mas todos nós precisamos começar a pensar sobre essas coisas,” diz ele. “Estamos falando de alguns anos a partir de agora. Precisamos descobrir o que isso significa. O que isso significa para o governo? O que isso significa para os negócios? O que isso significa para a sociedade?”

Porque se Aschenbrenner estiver mesmo parcialmente certo, o futuro está chegando mais rápido do que qualquer um está preparado.



Bolt42