Bolt42

Noam Brown, que lidera a pesquisa em raciocínio de IA na OpenAI, afirma que certas formas de modelos de IA “raciocinadores” poderiam ter surgido 20 anos antes, se os pesquisadores “soubessem [a abordagem] correta” e os algoritmos.

“Houve várias razões pelas quais essa direção de pesquisa foi negligenciada”, disse Brown durante um painel na conferência GTC da Nvidia em San Jose na quarta-feira. “Percebi ao longo do meu trabalho que, ok, há algo faltando. Os humanos passam muito tempo pensando antes de agir em uma situação difícil. Talvez isso seja muito útil [na IA].”

Brown se referia ao seu trabalho com IA de jogos na Carnegie Mellon University, incluindo o Pluribus, que derrotou profissionais humanos de elite no poker. A IA que Brown ajudou a criar era única na época, pois “raciocinava” sobre problemas em vez de tentar uma abordagem mais forçada.

Brown é um dos arquitetos do o1, um modelo de IA da OpenAI que utiliza uma técnica chamada inferência em tempo de teste para “pensar” antes de responder a consultas. A inferência em tempo de teste envolve a aplicação de computação adicional para executar modelos a fim de impulsionar uma forma de “raciocínio”. Em geral, os chamados modelos raciocinadores são mais precisos e confiáveis do que os modelos tradicionais, particularmente em domínios como matemática e ciência.

Brown foi questionado durante o painel se a academia poderia algum dia realizar experimentos em escala semelhante aos laboratórios de IA como a OpenAI, dada a falta geral de acesso a recursos computacionais nas instituições. Ele admitiu que se tornou mais difícil nos últimos anos, à medida que os modelos se tornaram mais intensivos em computação, mas que os acadêmicos podem ter um impacto explorando áreas que requerem menos computação, como o design de arquitetura de modelos.

“[T]há uma oportunidade de colaboração entre os laboratórios de ponta [e a academia]”, disse Brown. “Certamente, os laboratórios de ponta estão analisando publicações acadêmicas e pensando cuidadosamente sobre, ok, isso faz um argumento convincente de que, se isso fosse ampliado ainda mais, seria muito eficaz. Se há esse argumento convincente no artigo, nós iremos investigar isso nesses laboratórios.”

Os comentários de Brown ocorrem em um momento em que a administração Trump está fazendo cortes profundos nos subsídios científicos. Especialistas em IA, incluindo o laureado com o Prêmio Nobel Geoffrey Hinton, criticaram esses cortes, afirmando que podem ameaçar os esforços de pesquisa em IA tanto no país quanto no exterior.

Brown destacou a benchmarking em IA como uma área onde a academia poderia ter um impacto significativo. “O estado dos benchmarks em IA é realmente ruim, e isso não requer muito poder computacional para fazer”, disse ele.

Como já discutimos antes, os benchmarks de IA populares hoje tendem a testar conhecimento esotérico, e dão pontuações que correlacionam-se mal com a proficiência em tarefas que a maioria das pessoas se importa. Isso levou a ampla confusão sobre as capacidades e melhorias dos modelos.

Atualizado às 16h06, horário do Pacífico: Uma versão anterior deste texto implicava que Brown se referia a modelos de raciocínio como o o1 em suas observações iniciais. Na verdade, ele estava se referindo ao seu trabalho em IA de jogos antes de sua passagem pela OpenAI. Lamentamos o erro.


    catorze + dez =

    Bolt42