Bolt42

Os fundadores de empresas de IA têm a reputação de fazer afirmações ousadas sobre o potencial da tecnologia para remodelar áreas, especialmente as ciências. No entanto, Thomas Wolf, cofundador e diretor científico da Hugging Face, tem uma visão mais ponderada.

Em um ensaio publicado no X na quinta-feira, Wolf expressou seu receio de que a IA se torne “simpatizantes em servidores” na ausência de uma inovação significativa na pesquisa de IA. Ele elaborou que os paradigmas atuais de desenvolvimento de IA não produzirão uma IA capaz de resolver problemas de forma criativa e fora da caixa — o tipo de resolução de problemas que ganha Prêmios Nobel.

“O principal erro que as pessoas costumam cometer é pensar que [pessoas como] Newton ou Einstein eram apenas alunos destacados ampliados, que um gênio surge quando você extrapola linearmente um aluno no top-10%,” escreveu Wolf. “Para criar um Einstein em um data center, não precisamos apenas de um sistema que conheça todas as respostas, mas sim de um que possa fazer perguntas que ninguém mais pensou ou teve coragem de fazer.”

As assertivas de Wolf contrastam com as do CEO da OpenAI, Sam Altman, que em um ensaio no início deste ano afirmou que a IA “superinteligente” poderia “acelerar massivamente a descoberta científica.” Da mesma forma, o CEO da Anthropic, Dario Amodei, previu que a IA poderia ajudar a formular curas para a maioria dos tipos de câncer.

O problema de Wolf com a IA hoje — e para onde ele pensa que a tecnologia está caminhando — é que ela não gera novo conhecimento ao conectar fatos previamente não relacionados. Mesmo com a maior parte da internet à sua disposição, a IA como a entendemos atualmente preenche principalmente as lacunas entre o que os humanos já conhecem, disse Wolf.

Alguns especialistas em IA, incluindo o ex-engenheiro do Google François Chollet, expressaram opiniões semelhantes, argumentando que, embora a IA possa ser capaz de memorizar padrões de raciocínio, é improvável que consiga gerar “novo raciocínio” baseado em situações novas.

Wolf acredita que os laboratórios de IA estão construindo o que são essencialmente “estudantes muito obedientes” — não revolucionários científicos em nenhum sentido da palavra. A IA hoje não é incentivada a questionar e propor ideias que potencialmente vão contra seus dados de treinamento, disse ele, limitando-a a responder perguntas conhecidas.

“Para criar um Einstein em um data center, não precisamos apenas de um sistema que conheça todas as respostas, mas sim de um que possa fazer perguntas que ninguém mais pensou ou se atreveu a fazer,” disse Wolf. “Um que escreva ‘E se todos estiverem errados sobre isso?’ quando todos os livros didáticos, especialistas e o conhecimento comum sugerem o contrário.”

Wolf acredita que a “crise de avaliação” na IA é parte culpada por esse estado desanimador das coisas. Ele aponta para os benchmarks comumente usados para medir melhorias em sistemas de IA, a maioria dos quais consiste em perguntas que têm respostas claras, óbvias e “fechadas”.

Como solução, Wolf propõe que a indústria de IA “mova-se para uma medida de conhecimento e raciocínio” que possa elucidar se a IA pode tomar “abordagens contrafactuais ousadas”, fazer propostas gerais com base em “dicas pequenas” e fazer “perguntas não óbvias” que levem a “novos caminhos de pesquisa.”

O desafio será descobrir como essa medida deve parecer, admite Wolf. Mas ele acredita que pode valer bem a pena o esforço.

“[T]o aspecto mais crucial da ciência [é] a habilidade de fazer as perguntas certas e desafiar até mesmo o que se aprendeu,” disse Wolf. “Não precisamos de um aluno de A+ [IA] que possa responder a todas as perguntas com conhecimento geral. Precisamos de um estudante de B que veja e questione o que todos os outros perderam.”


    dezesseis − quatro =

    Bolt42