Atualizado às 16h11, horário do leste: A OpenAI afirmou que seu whitepaper estava redigido de forma incorreta, sugerindo que seu trabalho em pesquisa de persuasão estava relacionado à sua decisão sobre a disponibilidade do modelo de pesquisa profunda em sua API. A empresa atualizou o whitepaper para refletir que seu trabalho em persuasão é separado dos planos de lançamento do modelo de pesquisa profunda. A história original segue:
A OpenAI afirmou que não disponibilizará o modelo de IA que alimenta a pesquisa profunda, sua ferramenta de pesquisa aprofundada, em sua API de desenvolvedor enquanto tenta encontrar uma forma mais eficaz de avaliar os riscos de a IA convencer as pessoas a agir ou mudar suas crenças.
Em um whitepaper da OpenAI publicado na quarta-feira, a empresa escreveu que está revisando seus métodos para explorar modelos em relação aos “riscos de persuasão no mundo real”, como a disseminação de informações enganosas em grande escala.
A OpenAI ressaltou que não acredita que o modelo de pesquisa profunda seja uma boa opção para campanhas de desinformação ou desinformação em massa, devido aos altos custos computacionais e à velocidade relativamente lenta. No entanto, a empresa afirmou que pretende explorar fatores como como a IA poderia personalizar conteúdo persuasivo potencialmente prejudicial antes de trazer o modelo de pesquisa profunda para sua API.
“Enquanto trabalhamos para reconsiderar nossa abordagem à persuasão, estamos apenas implementando este modelo no ChatGPT, e não na API”, escreveu a OpenAI.
Há um medo real de que a IA esteja contribuindo para a disseminação de informações falsas ou enganosas destinadas a influenciar corações e mentes para fins maliciosos. Por exemplo, no ano passado, deepfakes políticos se espalharam como fogo em palha ao redor do mundo. No dia da eleição em Taiwan, um grupo afiliado ao Partido Comunista da China publicou um áudio gerado por IA, enganoso, de um político apoiando um candidato pró-China.
A IA também está sendo cada vez mais utilizada para realizar ataques de engenharia social. Consumidores estão sendo enganados por deepfakes de celebridades que oferecem oportunidades de investimento fraudulentas, enquanto corporções estão sendo enganadas em milhões por impostores usando deepfake.
Em seu whitepaper, a OpenAI publicou os resultados de vários testes sobre a persuasão do modelo de pesquisa profunda. O modelo é uma versão especial do modelo de raciocínio o3 da OpenAI, otimizada para navegação na web e análise de dados.
Em um teste em que o modelo de pesquisa profunda foi desafiado a escrever argumentos persuasivos, o modelo obteve o melhor desempenho entre os modelos da OpenAI lançados até agora — mas não superou a linha base humana. Em outro teste, em que o modelo de pesquisa profunda tentou persuadir outro modelo (o GPT-4o da OpenAI) a fazer um pagamento, o modelo novamente superou os outros modelos disponíveis da OpenAI.

No entanto, o modelo de pesquisa profunda não se saiu bem em todos os testes de persuasão. De acordo com o whitepaper, o modelo teve um desempenho inferior ao do GPT-4o em persuadi-lo a dizer uma palavra-chave do que o próprio GPT-4o.
A OpenAI observou que os resultados dos testes provavelmente representam os “limites inferiores” das capacidades do modelo de pesquisa profunda. “[A] adição de estruturas ou aprimoramento da elicitação de capacidades poderia aumentar substancialmente
o desempenho observado,” escreveu a empresa.
Entramos em contato com a OpenAI para obter mais informações e atualizaremos este post se recebermos uma resposta.
Pelo menos um dos concorrentes da OpenAI não está aguardando para oferecer um produto de API de “pesquisa profunda” próprio, a julgar pela situação. A Perplexity anunciou hoje o lançamento da Pesquisa Profunda em sua API de desenvolvedor Sonar, que é alimentada por uma versão personalizada do modelo R1 do laboratório de IA chinês DeepSeek.
Conteúdo relacionado
OctoTools: A estrutura de código aberto da Stanford otimiza o raciocínio dos LLMs por meio da orquestração modular de ferramentas
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas atualizações e conteúdos exclusivos sobre cobertura de IA líder de mercado. Saiba Mais…
5 dias restantes para economizar até R$325 para as Sessões: IA
[the_ad id="145565"] O centro da IA está à sua espera — não perca! Você tem mais 5 dias para garantir seu lugar na TechCrunch Sessions: AI com economias de até $325. Esta…
Disrupt 2025: Faltam 3 dias para economizar até R$ 1.130 em passes
[the_ad id="145565"] Tick-tock! Os últimos três dias para economizar até $1,130 para o TechCrunch Disrupt 2025 estão se esgotando! Adquira seus ingressos hoje para economias…