Ilya Sutskever, co-fundador da OpenAI e figura controversa no golpe na diretoria do ano passado contra o CEO Sam Altman, deixou a empresa.
Ele foi seguido por Jan Leike, um importante pesquisador de segurança em IA na empresa.
E as saídas levantam sérias questões sobre o futuro da segurança em IA em uma das principais empresas de IA do mundo.
Sutskever anunciou sua saída no dia 14 de maio no X. Essa também foi uma de suas primeiras declarações públicas desde o golpe na diretoria.
Em sua postagem de despedida, Sutskever elogiou Altman e o co-fundador Greg Brockman, e ambos compartilharam declarações complementares sobre sua saída.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
No entanto, Leike foi um pouco mais crítico em sua declaração no X.
I joined because I thought OpenAI would be the best place in the world to do this research.
However, I have been disagreeing with OpenAI leadership about the company’s core priorities for quite some time, until we finally reached a breaking point.
— Jan Leike (@janleike) May 17, 2024
Tanto Sutskever quanto Leike faziam parte da equipe de superalinhamento da OpenAI, um grupo focado em garantir que a IA superinteligente seja segura e benéfica para a humanidade.
Essa equipe foi dissolvida após as saídas de Sutskever e Leike.
Então, quão preocupados devemos estar?
Eu obtive a resposta do fundador e CEO do Marketing AI Institute, Paul Roetzer, no Episódio 98 de The Artificial Intelligence Show.
A importância do superalinhamento
Ajudaria entender um pouco mais sobre a iniciativa de superalinhamento na OpenAI.
A equipe de superalinhamento foi anunciada em julho de 2023 com o objetivo expresso de resolver o problema de como construir uma IA superinteligente de forma segura em quatro anos.
A equipe, co-liderada por Ilya e Jan, deveria receber 20% da computação da OpenAI para atingir esse objetivo.
Pelo que parece, de acordo com a postagem de despedida de Leike, as coisas não saíram conforme o planejado.
Over the past few months my team has been sailing against the wind. Sometimes we were struggling for compute and it was getting harder and harder to get this crucial research done.
— Jan Leike (@janleike) May 17, 2024
A crítica é particularmente incisiva, uma vez que a OpenAI parece ter cláusulas de difamação severas em alguns contratos de funcionários que forçam a renunciar sua participação acionária se disserem algo negativo sobre a empresa.
No final de sua declaração, Leike soou alarmes sobre AGI (inteligência geral artificial), encorajando os funcionários da OpenAI a “sentir a AGI.”
Essa é uma frase específica usada dentro da OpenAI “muitas vezes de forma irônica,” diz Roetzer. “Mas há um aspecto sério. ‘Sentir a AGI’ significa recusar-se a esquecer quão extraordinárias são as capacidades da IA, reconhecendo que há muito mais a ser feito e nenhum teto humano óbvio.”
Assim, nesse contexto, Leike está incentivando a equipe a levar a sério suas obrigações morais de moldar a AGI da maneira mais positiva possível.
É um aviso final sério de uma das pessoas que estavam encarregadas de fazer exatamente isso na OpenAI.
Desacordo sobre os perigos à frente
Embora pareça que Leike esteja levando muito a sério os riscos da AGI, nem todos concordam com ele.
Yann LeCun, do Meta, um dos pais fundadores da IA, discorda vocalmente que a humanidade sequer tenha conseguido projetar um sistema superinteligente, então os medos de tê-lo são extremamente exagerados.
“É muito importante lembrar que isso não é binário,” diz Roetzer. “Existem opiniões muito diferentes de pessoas muito inteligentes e líderes do setor que têm visões completamente opostas sobre onde estamos agora na IA.”
No entanto, parece que há motivos para preocupação de que, se a superinteligência acontecer, a OpenAI agora está menos preparada para isso.
Em uma entrevista recente no The Dwarkesh Podcast, o co-fundador da OpenAI, John Schulman, parecia evitar algumas perguntas difíceis sobre quão pronta a OpenAI estava para a AGI.
O anfitrião Dwarkesh Patel, após discutir quais limitações Schulman vê na inteligência artificial crescente (das quais parece que há poucas), disse:
“Parece que, então, você deveria estar planejando para a possibilidade de ter AGI muito em breve.”
Schulman respondeu:
“Acho que isso seria razoável.”
“Então, qual é o plano se não houver outros gargalos no próximo ano ou algo assim, você tem AGI,” responde Patel. “Qual é o plano?”
Anota Roetzer:
“É aqui que John, eu acho, começa a querer que a entrevista termine.”
Ele diz que, se a AGI chegar antes do esperado, pode ser prudente desacelerar para garantir que possa ser tratada com segurança.
“Basicamente, ele não tem ideia. Nenhum plano,” diz Roetzer.
“É por isso que o superalinhamento existia.”
Conteúdo relacionado
40% das Compras Pmax de uma Marca de E-commerce Foram Exibidas em Sites MFA Criados por IA e Domínios Inativos
[the_ad id="145565"] A crescente presença de sites gerados por inteligência artificial voltados para a publicidade está dificultando a tarefa dos anunciantes em garantir que…
Como o Anúncio de Fim de Ano da Coca-Cola com IA Passou de Elogios a Raiva
[the_ad id="145565"] Inicialmente, o remake da Coca-Cola de seu comercial de 1995, “As Férias Estão Chegando,” alimentado por IA, parecia ser bem recebido. A System1, que testa…
Dentro da Estratégia de Dados Focada no Cliente de Chris Marino no Google
[the_ad id="145565"] No episódio deste podcast The Speed of Culture, o fundador e apresentador da Suzy, Matt Britton, conversa com Chris Marino, chefe de agência da Google…