Bolt42

Participe das nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA líder na indústria. Saiba Mais


Os mais recentes lançamentos de modelos de linguagem de IA (LLM) como Claude 3.7 da Anthropic e Grok 3 da xAI estão frequentemente apresentando desempenho de nível de doutorado — pelo menos de acordo com certos benchmarks. Essa conquista marca o próximo passo em direção ao que o ex-CEO do Google, Eric Schmidt, imagina: um mundo onde todos têm acesso a “um grande polímata”, uma IA capaz de recorrer a vastos corpos de conhecimento para resolver problemas complexos em várias disciplinas.

O professor da Wharton Business School, Ethan Mollick, notou em seu blog One Useful Thing que esses modelos mais recentes foram treinados usando significativamente mais poder computacional do que o GPT-4 em seu lançamento há dois anos, com o Grok 3 treinado em até 10 vezes mais computação. Ele acrescentou que isso tornaria o Grok 3 o primeiro modelo de IA “gen 3”, enfatizando que “essa nova geração de IAs é mais inteligente, e o salto em capacidades é impressionante.”

Por exemplo, o Claude 3.7 demonstra capacidades emergentes, como antever as necessidades dos usuários e a habilidade de considerar ângulos novos na resolução de problemas. De acordo com a Anthropic, é o primeiro modelo de raciocínio híbrido, combinando um LLM tradicional para respostas rápidas com capacidades avançadas de raciocínio para resolver problemas complexos.

Mollick atribuiu esses avanços a duas tendências convergentes: a rápida expansão do poder computacional para treinar LLMs e a crescente capacidade da IA de lidar com a resolução de problemas complexos (frequentemente descrita como raciocínio ou pensamento). Ele concluiu que essas duas tendências estão “supercarregando as habilidades da IA.”

O que podemos fazer com essa IA supercarregada?

Em um passo significativo, a OpenAI lançou seu agente de IA de “pesquisa profunda” no início de fevereiro. Em sua análise no Platformer, Casey Newton comentou que a pesquisa profunda parecia “impressionantemente competente.” Newton observou que a pesquisa profunda e ferramentas semelhantes poderiam acelerar significativamente a pesquisa, análise e outras formas de trabalho do conhecimento, embora sua confiabilidade em domínios complexos ainda seja uma questão em aberto.

Baseada em uma variante da ainda não lançada o3 modelo de raciocínio, a pesquisa profunda pode se envolver em raciocínio estendido ao longo de longas durações. Ela faz isso usando raciocínio em cadeia (COT), dividindo tarefas complexas em múltiplos passos lógicos, assim como um pesquisador humano pode refinar sua abordagem. Ela também pode pesquisar na web, permitindo que acesse informações mais atualizadas do que as que estão nos dados de treinamento do modelo.

Timothy Lee escreveu em Understanding AI sobre vários testes que especialistas realizaram na pesquisa profunda, observando que “seu desempenho demonstra as impressionantes capacidades do modelo o3 subjacente.” Um teste pediu direções de como construir uma planta de eletrólise de hidrogênio. Comentando sobre a qualidade do resultado, um engenheiro mecânico “estimou que levaria um profissional experiente uma semana para criar algo tão bom quanto o relatório de 4,000 palavras que a OpenAI gerou em quatro minutos.”

Mas espere, tem mais…

A Google DeepMind também lançou recentemente um “co-cientista de IA”, um sistema de IA multiagente baseado em seu LLM Gemini 2.0. Ele é projetado para ajudar os cientistas a criar novas hipóteses e planos de pesquisa. Já, o Imperial College London comprovou o valor dessa ferramenta. De acordo com o professor José R. Penadés, sua equipe passou anos desvendando por que certos superbugs resistem a antibióticos. A IA replicou suas descobertas em apenas 48 horas. Enquanto a IA acelerou dramaticamente a geração de hipóteses, os cientistas humanos ainda eram necessários para confirmar as descobertas. No entanto, Penadés disse que a nova aplicação de IA “tem o potencial de superalimentar a ciência.”

O que significaria supercarregar a ciência?

No mês passado, o CEO da Anthropic, Dario Amodei, escreveu em seu blog Machines of Loving Grace que esperava que a “IA poderosa” — seu termo para o que muitos chamam de inteligência artificial geral (AGI) — levaria a “próximos 50 a 100 anos de progresso biológico [pesquisa] em 5 a 10 anos.” Quatro meses atrás, a ideia de comprimir até um século de progresso científico em uma única década parecia extremamente otimista. Com os recentes avanços nos modelos de IA, agora incluindo Anthropic Claude 3.7, OpenAI deep research e Google AI co-cientista, o que Amodei se referiu como uma “transformação radical” de curto prazo está começando a parecer muito mais plausível.

No entanto, enquanto a IA pode acelerar a descoberta científica, a biologia, pelo menos, ainda está limitada por restrições do mundo real — validação experimental, aprovação regulatória e ensaios clínicos. A questão não é mais se a IA transformará a ciência (certamente o fará), mas sim quão rapidamente seu impacto total será realizado.

Em uma postagem de blog em 9 de fevereiro, o CEO da OpenAI, Sam Altman, afirmou que “sistemas que começam a apontar para a AGI estão entrando em vista.” Ele descreveu a AGI como “um sistema que pode lidar com problemas cada vez mais complexos, em nível humano, em muitos campos.”

Altman acredita que alcançar esse marco pode desbloquear um futuro quase utópico, onde “o crescimento econômico à nossa frente parece surpreendente, e agora podemos imaginar um mundo onde curamos todas as doenças, temos muito mais tempo para aproveitar com nossas famílias e podemos realizar totalmente nosso potencial criativo.”

Uma dose de humildade

Esses avanços da IA são extremamente significativos e prevêem um futuro muito diferente em um curto período de tempo. No entanto, a ascensão meteórica da IA não ocorreu sem tropeços. Considere a recente queda do Humane AI Pin — um dispositivo hypeado como um substituto do smartphone após uma TED Talk bem recebida. Mal um ano depois, a empresa colapsou, e seus restos foram vendidos por uma fração de sua avaliação anteriormente elevada.

As aplicações de IA do mundo real enfrentam frequentemente obstáculos significativos por várias razões, desde a falta de expertise relevante até limitações de infraestrutura. Esta tem sido certamente a experiência da Sensei Ag, uma startup financiada por um dos investidores mais ricos do mundo. A empresa se propôs aplicar IA à agricultura, criando variedades de culturas melhoradas e usando robôs para colheitas, mas encontrou grandes obstáculos. De acordo com o Wall Street Journal, a startup enfrentou muitos contratempos, de desafios técnicos a dificuldades logísticas inesperadas, ressaltando a lacuna entre o potencial da IA e sua implementação prática.

O que vem a seguir?

À medida que olhamos para o futuro próximo, a ciência está à beira de uma nova era de descobertas, com a IA se tornando um parceiro cada vez mais capaz na pesquisa. Algoritmos de aprendizado profundo trabalhando em conjunto com a curiosidade humana poderiam desvendar problemas complexos em velocidade recorde, enquanto os sistemas de IA analisam vastos volumes de dados, identificam padrões invisíveis aos humanos e sugerem hipóteses interdisciplinares.

Os cientistas já estão utilizando IA para comprimir cronogramas de pesquisa — prevendo estruturas de proteínas, examinando literatura e reduzindo anos de trabalho para meses ou até dias — desbloqueando oportunidades em áreas que vão da ciência climática à medicina.

No entanto, à medida que o potencial de transformação radical se torna mais claro, os riscos de perturbação e instabilidade também se aproximam. Altman ele próprio reconheceu em seu blog que “o equilíbrio de poder entre capital e trabalho pode facilmente ser desestabilizado”, um aviso sutil, mas significativo, de que o impacto econômico da IA poderia ser desestabilizador.

Essa preocupação já está se materializando, como demonstrado em Hong Kong, onde a cidade recentemente cortou 10.000 empregos civis ao mesmo tempo que aumentava os investimentos em IA. Se tais tendências continuarem e se expandirem, poderíamos ver uma grande upheaval na força de trabalho, aumentando a agitação social e colocando uma pressão intensa sobre instituições e governos em todo o mundo.

Adaptando-se a um mundo movido por IA

As crescentes capacidades da IA em descoberta científica, raciocínio e tomada de decisão marcam uma mudança profunda que apresenta tanto promessas extraordinárias quanto desafios formidáveis. Embora o caminho à frente possa ser marcado por interrupções econômicas e tensões institucionais, a história mostrou que as sociedades podem se adaptar a revoluções tecnológicas, embora nem sempre facilmente ou sem consequências.

Para navegar com sucesso essa transformação, as sociedades devem investir em governança, educação e adaptação da força de trabalho para garantir que os benefícios da IA sejam distribuídos de forma equitativa. Mesmo enquanto a regulamentação da IA enfrenta resistência política, cientistas, formuladores de políticas e líderes empresariais devem colaborar para construir estruturas éticas, impor padrões de transparência e elaborar políticas que mitiguem riscos enquanto ampliam o impacto transformador da IA. Se enfrentarmos esse desafio com previsibilidade e responsabilidade, pessoas e IA poderão enfrentar os maiores desafios do mundo, inaugurando uma nova era com descobertas que antes pareciam impossíveis.





    1 × cinco =




    Bolt42