A startup japonesa de IA Sakana afirmou que sua IA gerou uma das primeiras publicações científicas revisadas por pares. No entanto, embora a afirmação não seja necessariamente falsa, existem ressalvas a serem observadas.
O debate em torno da IA e seu papel no processo científico se torna mais intenso a cada dia. Muitos pesquisadores acreditam que a IA ainda não está pronta para atuar como um “co-cientista”, enquanto outros vêem potencial — mas reconhecem que é um trabalho em andamento.
A Sakana se enquadra neste último grupo.
A empresa afirmou que utilizou um sistema de IA chamado The AI Scientist-v2 para gerar um artigo que a Sakana então submeteu a um workshop na ICLR, uma conferência de IA bem estabelecida e respeitável. A Sakana alega que os organizadores do workshop, assim como a liderança da ICLR, concordaram em colaborar com a empresa para realizar um experimento que incluía a revisão dupla cega de manuscritos gerados por IA.
A Sakana disse que colaborou com pesquisadores da Universidade da Colúmbia Britânica e da Universidade de Oxford para submeter três artigos gerados por IA ao workshop mencionado para revisão por pares. A IA Scientist-v2 gerou os artigos “do início ao fim”, afirma a Sakana, incluindo as hipóteses científicas, experimentos e código experimental, análises de dados, visualizações, textos e títulos.
“Geramos ideias de pesquisa fornecendo o resumo e a descrição do workshop à IA,” disse Robert Lange, cientista de pesquisa e membro fundador da Sakana, ao TechCrunch por e-mail. “Isso garantiu que os artigos gerados estivessem dentro do tema e fossem submissões adequadas.”
Um dos três artigos foi aceito no workshop da ICLR — um artigo que examina criticamente técnicas de treinamento para modelos de IA. A Sakana disse que retirou imediatamente o artigo antes que pudesse ser publicado, em respeito à transparência e às convenções da ICLR.

“O artigo aceito introduz um novo e promissor método para treinar redes neurais e mostra que ainda existem desafios empíricos remanescentes,” disse Lange. “Isso fornece um ponto de dados interessante para fomentar investigação científica adicional.”
No entanto, a conquista não é tão impressionante quanto pode parecer à primeira vista.
No post do blog, a Sakana admite que sua IA cometeu erros de citação “embaraçosos”, como atribuir incorretamente um método a um artigo de 2016 em vez do trabalho original de 1997.
Além disso, o artigo da Sakana não passou por tanto escrutínio quanto algumas outras publicações revisadas por pares. Como a empresa o retirou após a revisão inicial por pares, o artigo não recebeu uma “meta-revisão” adicional, durante a qual os organizadores do workshop poderiam, teoricamente, rejeitá-lo.
Ademais, o fato de que as taxas de aceitação para workshops de conferências tendem a ser mais altas do que as taxas de aceitação para o “trilho principal” da conferência — um fato que a Sakana menciona candidamente em seu post no blog. A empresa afirmou que nenhum de seus estudos gerados por IA passou em seu padrão interno para publicação na trilha principal da ICLR.
Matthew Guzdial, um pesquisador em IA e professor assistente na Universidade de Alberta, chamou os resultados da Sakana de “um pouco enganosos.”
“A equipe da Sakana selecionou os artigos de um número de opções geradas, o que significa que eles estavam utilizando julgamento humano para escolher saídas que acreditavam que poderiam ser aceitas,” disse ele por e-mail. “O que acho que isso mostra é que humanos mais IA podem ser eficazes, não que a IA sozinha pode criar progresso científico.”
Mike Cook, pesquisador associado no King’s College London especializado em IA, questionou a rigorosidade dos revisores e do workshop.
“Novos workshops, como este, costumam ser revisados por pesquisadores mais juniores,” disse ele ao TechCrunch. “Vale a pena notar também que este workshop é sobre resultados negativos e dificuldades — o que é ótimo; eu já organizei um workshop semelhante antes — mas é discutivelmente mais fácil fazer uma IA escrever de forma convincente sobre uma falha.”
Cook acrescentou que não ficou surpreso que uma IA possa passar pela revisão por pares, considerando que a IA se destaca em redigir textos com aparência humana. Parte da publicação de artigos gerados por IA que passam pela revisão de periódicos não é uma novidade, apontou Cook, nem os dilemas éticos que isso gera para as ciências.
As deficiências técnicas da IA — como sua tendência a alucinações — fazem com que muitos cientistas hesitem em endossá-la para trabalhos sérios. Além disso, especialistas temem que a IA poderia simplesmente acabar gerando ruído na literatura científica, em vez de elevar o progresso.
“Precisamos nos perguntar se o resultado da [Sakana] é sobre quão boa a IA é em projetar e conduzir experimentos, ou se é sobre quão boa ela é em vender ideias para os humanos — o que sabemos que a IA já faz muito bem,” disse Cook. “Há uma diferença entre passar pela revisão por pares e contribuir com conhecimento para um campo.”
A Sakana, para seu crédito, não alega que sua IA pode produzir trabalhos científicos inovadores — ou mesmo especialmente novos. Em vez disso, o objetivo do experimento foi “estudar a qualidade da pesquisa gerada por IA”, disse a empresa, e destacar a necessidade urgente de “normas relacionadas à ciência gerada por IA.”
“[É] necessário questionar se a ciência [gerada por IA] deve ser avaliada com base em seus próprios méritos primeiro, para evitar preconceitos contra ela,” escreveu a empresa. “Daqui para frente, continuaremos trocando opiniões com a comunidade de pesquisa sobre o estado dessa tecnologia para garantir que ela não se desenvolva em uma situação onde seu único propósito seja passar pela revisão por pares, prejudicando substancialmente o significado do processo de revisão por pares científico.”
Conteúdo relacionado
Moonvalley lança um gerador de vídeos que afirma ter sido treinado com conteúdo licenciado.
[the_ad id="145565"] A startup baseada em Los Angeles, a Moonvalley, lançou um modelo de geração de vídeo por IA que afirma ser um dos poucos treinados com dados livres de…
Snap apresenta Lentes de Vídeo com IA, impulsionadas por seu modelo generativo interno
[the_ad id="145565"] O Snapchat está lançando suas primeiras Lentes de vídeo generativas AI, conforme informou a empresa exclusivamente ao TechCrunch. As Lentes são alimentadas…
A runtime de microserviços do Dapr agora suporta agentes de IA
[the_ad id="145565"] Em 2019, a Microsoft liberou o Dapr como código aberto, um novo runtime que facilita a construção de aplicações distribuídas baseadas em microsserviços.…