Bolt42

Inscreva-se em nossos boletins informativos diários e semanais para as últimas atualizações e conteúdos exclusivos sobre coberturas de IA de alto nível. Saiba Mais


A IA evoluiu em um ritmo surpreendente. O que parecia ficção científica há apenas alguns anos agora é uma realidade inegável. Em 2017, minha empresa lançou um Centro de Excelência em IA. A IA já estava melhorando em análises preditivas e muitos algoritmos de aprendizado de máquina (AM) estavam sendo utilizados para reconhecimento de voz, detecção de spam, verificação ortográfica (e outras aplicações) — mas ainda era cedo. Acreditávamos que estávamos apenas no primeiro inning do jogo da IA.

A chegada do GPT-3 e especialmente do GPT 3.5 — que foi ajustado para uso conversacional e serviu como a base para o primeiro ChatGPT em novembro de 2022 — foi um ponto de virada dramático, agora lembrado como o “momento ChatGPT.”

Desde então, houve uma explosão de capacidades de IA de centenas de empresas. Em março de 2023, a OpenAI lançou o GPT-4, que prometeu “faíscas de AGI” (inteligência geral artificial). Naquela época, ficou claro que já estávamos bem além do primeiro inning. Agora, parece que estamos na reta final de um esporte totalmente diferente.

A chama da AGI

Dois anos depois, a chama da AGI está começando a aparecer.

Em um episódio recente do podcast Hard Fork podcast, Dario Amodei — que está na indústria de IA há uma década, anteriormente como VP de pesquisa na OpenAI e agora como CEO da Anthropic — disse que há uma chance de 70 a 80% de que teremos “um número muito grande de sistemas de IA que são muito mais inteligentes que humanos em quase tudo antes do final da década, e meu palpite é 2026 ou 2027.”

O CEO da Anthropic, Dario Amodei, aparecendo no podcast Hard Fork. Fonte: https://www.youtube.com/watch?v=YhGUSIvsn_Y

A evidência para essa previsão está se tornando mais clara. No final do verão passado, a OpenAI lançou o o1 — o primeiro “modelo de raciocínio.” Desde então, eles lançaram o o3, e outras empresas também introduziram seus próprios modelos de raciocínio, incluindo o Google e, notoriamente, a DeepSeek. Os raciocinadores utilizam a cadeia de pensamento (COT), quebrando tarefas complexas em tempo de execução em múltiplos passos lógicos, da mesma forma que um humano pode abordar uma tarefa complicada. Agentes de IA sofisticados, incluindo a pesquisa profunda da OpenAI e o co-cientista da IA do Google, apareceram recentemente, prenunciando grandes mudanças na forma como a pesquisa será realizada.

Diferente dos modelos de linguagem grandes (LLMs) anteriores que principalmente combinavam padrões dos dados de treinamento, os modelos de raciocínio representam uma mudança fundamental da previsão estatística para a resolução estruturada de problemas. Isso permite que a IA enfrente problemas novos além de seu treinamento, possibilitando um raciocínio genuíno ao invés de um reconhecimento avançado de padrões.

Recentemente, usei a Pesquisa Profunda para um projeto e me lembrei da citação de Arthur C. Clarke: “Qualquer tecnologia suficientemente avançada é indistinguível da mágica.” Em cinco minutos, essa IA produziu o que me tomaria de 3 a 4 dias. Estava perfeito? Não. Estava próximo? Sim, muito. Esses agentes estão rapidamente se tornando verdadeiramente mágicos e transformadores e estão entre os primeiros de muitos agentes igualmente poderosos que em breve chegarão ao mercado.

A definição mais comum de AGI é um sistema capaz de realizar quase qualquer tarefa cognitiva que um humano pode fazer. Esses primeiros agentes de mudança sugerem que Amodei e outros que acreditam que estamos perto desse nível de sofisticação em IA podem estar corretos e que a AGI estará aqui em breve. Essa realidade levará a uma grande quantidade de mudanças, exigindo que pessoas e processos se adaptem rapidamente.

Mas é realmente AGI?

Existem vários cenários que podem emergir da chegada iminente de IAs poderosas. É desafiador e assustador que realmente não sabemos como isso acontecerá. O colunista do New York Times, Ezra Klein, abordou isso em um podcast recente: “Estamos correndo em direção à AGI sem realmente entender o que isso é ou o que isso significa.” Por exemplo, ele afirma que há pouca reflexão crítica ou planejamento contingencial em torno das implicações e, por exemplo, o que isso realmente significaria para o emprego.

Claro, existe outra perspectiva sobre esse futuro incerto e a falta de planejamento, exemplificada por Gary Marcus, que acredita que o aprendizado aprofundado de modo geral (e os LLMs especificamente) não levarão à AGI. Marcus emitiu o que equivale a uma crítica à posição de Klein, citando falhas notáveis na tecnologia de IA atual e sugerindo que é igualmente provável que estejamos longe da AGI.

Marcus pode estar correto, mas isso pode ser simplesmente uma disputa acadêmica sobre semântica. Como alternativa ao termo AGI, Amodei refere-se simplesmente a “IA poderosa” em seu blog, pois transmite uma ideia semelhante sem a definição imprecisa, “bagagem de ficção científica e hype.” Chame do que quiser, mas a IA só se tornará mais poderosa.

Brincando com fogo: Os possíveis futuros da IA

Em uma entrevista do 60 Minutes entrevista, o CEO da Alphabet, Sundar Pichai, disse que vê a IA como “a tecnologia mais profunda em que a humanidade está trabalhando. Mais profunda que o fogo, eletricidade ou qualquer coisa que tenhamos feito no passado.” Isso certamente se encaixa na crescente intensidade das discussões sobre IA. O fogo, como a IA, foi uma descoberta que mudou o mundo, que alimentou o progresso, mas exigiu controle para evitar catástrofes. O mesmo equilíbrio delicado se aplica à IA hoje.

Uma descoberta de imenso poder, o fogo transformou a civilização ao possibilitar calor, cozinha, metalurgia e indústria. Mas também trouxe destruição quando fora de controle. Se a IA se tornará nosso maior aliado ou nossa ruína dependerá de quão bem gerenciarmos suas chamas. Para levar essa metáfora adiante, existem vários cenários que podem surgir da IA ainda mais poderosa:

  1. A chama controlada (utopia): Nesse cenário, a IA é aproveitada como uma força para a prosperidade humana. A produtividade dispara, novos materiais são descobertos, medicina personalizada se torna disponível para todos, bens e serviços se tornam abundantes e acessíveis e os indivíduos são liberados da rotina para perseguir trabalhos e atividades mais significativas. Este é o cenário defendido por muitos aceleracionistas, no qual a IA traz progresso sem nos envolver em muito caos.
  2. O fogo instável (desafiante): Aqui, a IA traz benefícios inegáveis — revolucionando pesquisa, automação, novas capacidades, produtos e resolução de problemas. No entanto, esses benefícios são distribuídos de forma desigual — enquanto alguns prosperam, outros enfrentam deslocamento, ampliando as divisões econômicas e estressando sistemas sociais. A desinformação se espalha e os riscos de segurança aumentam. Neste cenário, a sociedade luta para equilibrar promessa e perigo. Pode-se argumentar que essa descrição está próxima da realidade atual.
  3. O incêndio (distopia): O terceiro caminho é um de desastre, a possibilidade mais fortemente associada aos chamados “catastróficos” e avaliações da “probabilidade de ruína”. Seja através de consequências não intencionais, implantação imprudente ou sistemas de IA operando além do controle humano, as ações da IA se tornam incontroláveis, e acidentes ocorrem. A confiança na verdade erode. No pior cenário, a IA sai do controle, ameaçando vidas, indústrias e instituições inteiras.

Embora cada um desses cenários pareça plausível, é desconfortável que realmente não sabemos quais são os mais prováveis, especialmente porque o cronograma pode ser curto. Podemos ver sinais iniciais de cada um: a automação impulsionada por IA aumentando a produtividade, a desinformação se espalhando em grande escala, a erosão da confiança e preocupações sobre modelos dissimulados que resistem às suas barreiras. Cada cenário causaria suas próprias adaptações para indivíduos, empresas, governos e sociedade.

Nossa falta de clareza sobre a trajetória do impacto da IA sugere que alguma mistura de todos os três futuros é inevitável. A ascensão da IA levará a um paradoxo, alimentando a prosperidade enquanto traz consequências não intencionais. Descobertas incríveis ocorrerão, assim como acidentes. Alguns novos campos aparecerão com possibilidades e perspectivas de emprego tentadoras, enquanto outros pilares da economia irão à falência.

Podemos não ter todas as respostas, mas o futuro da IA poderosa e seu impacto na humanidade está sendo escrito agora. O que vimos no recente AI Action Summit em Paris foi uma mentalidade de esperança pelo melhor, o que não é uma estratégia inteligente. Governos, empresas e indivíduos devem moldar a trajetória da IA antes que ela nos molda. O futuro da IA não será determinado apenas pela tecnologia, mas pelas escolhas coletivas que fazemos sobre como a implantar.

Gary Grossman é EVP da prática de tecnologia da Edelman.





    sete + 12 =




    Bolt42