Bolt42

Oi, pessoal, bem-vindos ao boletim regular de IA do TechCrunch. Se você deseja recebê-lo em sua caixa de entrada todas as quartas-feiras, inscreva-se aqui.

O ciclo de notícias sobre IA não diminuiu muito nesta temporada de festas. Entre os 12 dias de “shipmas” da OpenAI e o grande lançamento de modelo da DeepSeek no Dia de Natal, pisque e você pode perder um novo desenvolvimento.

E não está desacelerando agora. No domingo, o CEO da OpenAI, Sam Altman, disse em uma postagem em seu blog pessoal que ele acredita que a OpenAI sabe como construir inteligência geral artificial (AGI) e está começando a direcionar seu foco para a superinteligência.

A AGI é um termo nebuloso, mas a OpenAI tem sua própria definição: “sistemas altamente autônomos que superam os humanos na maioria das tarefas economicamente valiosas.” Quanto à superinteligência, que Altman entende como um passo além da AGI, ele disse na postagem do blog que poderia “acelerar massivamente” a inovação muito além do que os humanos são capazes de alcançar sozinhos.

“[A OpenAI continua] a acreditar que colocar iterativamente grandes ferramentas nas mãos das pessoas leva a grandes resultados amplamente distribuídos,” escreveu Altman.

Altman — assim como o CEO da concorrente Anthropic, Dario Amodei — é da crença otimista de que a AGI e a superinteligência levarão à riqueza e prosperidade para todos. Mas assumindo que AGI e superinteligência são viáveis sem novas descobertas técnicas, como podemos ter certeza de que beneficiarão todos?

Um dado preocupante recente é um estudo destacado pelo professor da Wharton, Ethan Mollick, no X no início deste mês. Pesquisadores da Universidade Nacional de Cingapura, da Universidade de Rochester e da Universidade Tsinghua investigaram o impacto do chatbot alimentado por IA da OpenAI, o ChatGPT, em freelancers de diferentes mercados de trabalho.

O estudo identificou um “ponto de inflexão econômico” para diferentes tipos de trabalho. Antes do ponto de inflexão, a IA aumentou os ganhos dos freelancers. Por exemplo, os desenvolvedores web observaram um aumento de cerca de 65%. Mas após o ponto de inflexão, a IA começou a substituir os freelancers. Tradutores viram uma queda aproximada de 30%.

O estudo sugere que assim que a IA começa a substituir um trabalho, não reverte. E isso deve preocupar a todos nós, se uma IA mais capaz estiver realmente no horizonte.

Altman escreveu em sua postagem que está “bastante confiante” de que “todos” verão a importância de “maximizar o benefício e o empoderamento amplo” na era da AGI — e superinteligência. Mas e se ele estiver errado? E se a AGI e a superinteligência chegarem, e apenas as corporações tiverem algo para mostrar por isso?

O resultado não será um mundo melhor, mas mais da mesma desigualdade. E se esse for o legado da IA, será um legado profundamente deprimente.

Notícias

Créditos da imagem: Moor Studio / Getty Images

Valley do Silício ignora o apocalipse: Tecnólogos têm soado alarmes há anos sobre o potencial da IA causar danos catastróficos. Mas em 2024, esses chamados de alerta foram abafados.

OpenAI perdendo dinheiro: O CEO da OpenAI, Sam Altman, disse que a empresa atualmente está perdendo dinheiro com seu plano ChatGPT Pro de $200 por mês, porque as pessoas o estão usando mais do que a empresa esperava.

Recorde em investimentos em IA generativa: Os investimentos em IA generativa, que englobam uma variedade de aplicativos, ferramentas e serviços baseados em IA para gerar texto, imagens, vídeos, discurso, música e mais, atingiram novos patamares no ano passado.

Microsoft aumenta investimentos em data centers: A Microsoft destinou $80 bilhões no ano fiscal de 2025 para construir data centers projetados para lidar com cargas de trabalho de IA.

Grok 3 sumido: O modelo de IA de próxima geração da xAI, Grok 3, não chegou a tempo, adicionando-se a uma tendência de modelos emblemáticos que perderam suas janelas de lançamento prometidas.

Papel de pesquisa da semana

A IA pode cometer muitos erros. Mas também pode potencializar especialistas em seu trabalho.

Ao menos, essa é a conclusão de uma equipe de pesquisadores da Universidade de Chicago e do MIT. Em um novo estudo, eles sugerem que investidores que usam o GPT-4o da OpenAI para resumir chamadas de resultados obtêm retornos mais altos do que aqueles que não o fazem.

Os pesquisadores recrutaram investidores e fizeram o GPT-4o fornecer a eles resumos de IA alinhados com sua expertise de investimento. Investidores sofisticados receberam notas geradas por IA mais técnicas, enquanto os novatos receberam resumos mais simples.

Os investidores mais experientes viram uma melhoria de 9,6% em seus retornos de um ano após usar o GPT-4o, enquanto os investidores menos experientes viram um aumento de 1,7%. Isso não é nada mal para a colaboração entre IA e humanos, diria eu.

Modelo da semana

Desempenho do METAGENE-1 em vários benchmarks. Créditos da imagem: Prime Intellect

A Prime Intellect, uma startup que constrói infraestrutura para o treinamento de sistemas de IA descentralizados, lançou um modelo de IA que afirma poder ajudar a detectar patógenos.

O modelo, chamado METAGENE-1, foi treinado em um conjunto de dados de mais de 1,5 trilhões de pares de bases de DNA e RNA sequenciados de amostras de esgoto humano. Criado em parceria com a Universidade do Sul da Califórnia e o Nucleic Acid Observatory da SecureBio, a Prime Intellect disse que o METAGENE-1 pode ser usado para várias aplicações metagenômicas, como o estudo de organismos.

“O METAGENE-1 alcança desempenho de última geração em vários benchmarks genômicos e novas avaliações focadas na detecção de patógenos humanos,” escreveu a Prime Intellect em uma série de postagens no X. “Após o pré-treinamento, este modelo foi projetado para ajudar em tarefas nas áreas de biossurveillance, monitoramento de pandemias e detecção de patógenos.”

Variedade

Em resposta a ações legais de grandes editoras de música, a Anthropic concordou em manter barreiras que impedem seu chatbot alimentado por IA, Claude, de compartilhar letras de músicas protegidas por direitos autorais.

Editoras, incluindo a Universal Music Group, Concord Music Group e ABKCO, processaram a Anthropic em 2023, acusando a startup de violação de direitos autorais por treinar seus sistemas de IA com letras de pelo menos 500 músicas. A ação ainda não foi resolvida, mas, por enquanto, a Anthropic concordou em impedir que Claude forneça letras de músicas de propriedade das editoras e crie novas letras de músicas baseadas no material protegido por direitos autorais.

“Continuamos ansiosos para mostrar que, consistente com a legislação de direitos autorais existente, o uso de material potencialmente protegido por direitos autorais no treinamento de modelos de IA generativa é um uso justificado,” afirmou a Anthropic em um comunicado.


    18 + treze =

    Bolt42