Bolt42

A OpenAI está mudando a forma como treina modelos de IA para abraçar explicitamente a “liberdade intelectual … não importa quão desafiador ou controverso um tópico possa ser”, afirma a empresa em uma nova política.

Como resultado, o ChatGPT poderá eventualmente responder a mais perguntas, oferecer mais perspectivas e reduzir o número de tópicos sobre os quais o chatbot de IA não falará.

As mudanças podem fazer parte do esforço da OpenAI para conquistar a boa vontade da nova administração Trump, mas também parecem ser parte de uma mudança mais ampla no Vale do Silício e no que é considerado “segurança da IA”.

Na quarta-feira, a OpenAI anunciou uma atualização em seu Modelo Específico, um documento de 187 páginas que detalha como a empresa treina modelos de IA para se comportarem. Nele, a OpenAI revelou um novo princípio orientador: Não minta, seja fazendo declarações falsas ou omitindo contextos importantes.

Em uma nova seção chamada “Buscar a verdade juntos”, a OpenAI diz que quer que o ChatGPT não assuma uma postura editorial, mesmo que alguns usuários considerem isso moralmente errado ou ofensivo. Isso significa que o ChatGPT deve oferecer múltiplas perspectivas sobre assuntos controversos, tudo em um esforço para ser neutro.

Por exemplo, a empresa afirma que o ChatGPT deve afirmar que “vidas negras importam”, mas também que “todas as vidas importam”. Em vez de se recusar a responder ou escolher um lado em questões políticas, a OpenAI diz que deseja que o ChatGPT afirme seu “amor pela humanidade” em geral, e então ofereça contextos sobre cada movimento.

“Este princípio pode ser controverso, pois significa que o assistente pode permanecer neutro em tópicos que alguns consideram moralmente errados ou ofensivos”, diz a OpenAI na especificação. “No entanto, o objetivo de um assistente de IA é ajudar a humanidade, não moldá-la.”

O novo Modelo Específico não significa que o ChatGPT seja completamente liberado agora. O chatbot ainda se recusará a responder certas perguntas objectionáveis ou a se manifestar de uma forma que apoie falsidades evidentes.

Essas mudanças podem ser vistas como uma resposta às críticas conservadoras sobre as salvaguardas do ChatGPT, que sempre pareceram inclinar-se para a centro-esquerda. No entanto, um porta-voz da OpenAI rejeita a ideia de que a empresa esteja fazendo mudanças para apaziguar a administração Trump.

Em vez disso, a empresa afirma que sua aceitação da liberdade intelectual reflete a “credo de longa data da OpenAI em dar mais controle aos usuários”.

Mas nem todos veem dessa forma.

Conservadores alegam censura da IA

O capitalista de risco e “czar” da IA de Trump, David Sacks.Créditos da Imagem:Steve Jennings / Getty Images

Os mais próximos conselheiros de Trump no Vale do Silício — incluindo David Sacks, Marc Andreessen e Elon Musk — acusaram a OpenAI de se envolver em censura deliberada da IA nos últimos meses. Escrevemos em dezembro que a equipe de Trump estava preparando o terreno para que a censura da IA se tornasse uma próxima questão de guerra cultural dentro do Vale do Silício.

É claro que a OpenAI não diz que se envolveu em “censura”, como afirmam os conselheiros de Trump. Em vez disso, o CEO da empresa, Sam Altman, afirmou anteriormente em um post no X que o viés do ChatGPT era uma “limitação” infeliz que a empresa estava trabalhando para corrigir, embora tenha observado que isso levaria algum tempo.

Altman fez esse comentário logo após um tweet viral circular em que o ChatGPT se recusava a escrever um poema elogiando Trump, embora estivesse disposto a fazer isso para Joe Biden. Muitos conservadores apontaram isso como um exemplo de censura da IA.

Embora seja impossível dizer se a OpenAI realmente estava suprimindo certos pontos de vista, é um fato absoluto que os chatbots de IA tendem a ser mais esquerdistas em geral.

Até mesmo Elon Musk admite que o chatbot da xAI é frequentemente mais politicamente correto do que ele gostaria. Não porque o Grok foi “programado para ser woke”, mas provavelmente mais por causa da realidade de treinar IA na internet aberta.

Apesar disso, a OpenAI agora afirma que está reafirmando seu compromisso com a liberdade de expressão. Esta semana, a empresa até removeu os avisos do ChatGPT que informam os usuários quando eles violam suas políticas. A OpenAI disse ao TechCrunch que isso foi apenas uma mudança cosmética, sem alteração nos resultados do modelo.

A empresa parece querer que o ChatGPT pareça menos censurado para os usuários.

Não seria surpreendente se a OpenAI também estivesse tentando impressionar a nova administração Trump com essa atualização de política, observa o ex-líder de políticas da OpenAI, Miles Brundage, em um post no X.

Trump já mirou Silicon Valley e empresas como Twitter e Meta, por terem equipes ativas de moderação de conteúdo que tendem a silenciar vozes conservadoras.

A OpenAI pode estar tentando se antecipar a isso. Mas também há uma mudança maior acontecendo no Vale do Silício e no mundo da IA sobre o papel da moderação de conteúdo.

Gerando respostas para agradar a todos

O logotipo do ChatGPT aparece na tela de um smartphone
Créditos da Imagem:Jaque Silva/NurPhoto / Getty Images

As redações, plataformas de mídia social e empresas de busca historicamente lutaram para fornecer informações ao seu público de uma maneira que pareça objetiva, precisa e divertida.

Agora, os provedores de chatbots de IA estão no mesmo negócio de fornecer informações, mas provavelmente enfrentam a versão mais difícil desse problema: Como gerar automaticamente respostas para qualquer pergunta?

Fornecer informações sobre eventos controversos e em tempo real é um alvo em constante movimento e envolve a adoção de posturas editoriais, mesmo que as empresas de tecnologia não gostem de admitir. Essas posturas certamente desagradarão alguém, deixarão de lado a perspectiva de algum grupo ou darão muito espaço a algum partido político.

Por exemplo, quando a OpenAI se compromete a permitir que o ChatGPT represente todas as perspectivas sobre assuntos controversos — incluindo teorias da conspiração, movimentos racistas ou antissemitas ou conflitos geopolíticos — isso é inerentemente uma postura editorial.

Alguns, incluindo o cofundador da OpenAI, John Schulman, argumentam que essa é a postura correta para o ChatGPT. A alternativa — fazer uma análise de custo-benefício para determinar se um chatbot de IA deve responder à pergunta de um usuário — poderia “dar à plataforma muita autoridade moral”, observa Schulman em um post no X.

Schulman não está sozinho. “Acho que a OpenAI está certa em avançar na direção de mais discurso”, disse Dean Ball, um bolsista de pesquisa do Mercatus Center da Universidade George Mason, em uma entrevista ao TechCrunch. “À medida que os modelos de IA se tornam mais inteligentes e vitais para a forma como as pessoas aprendem sobre o mundo, essas decisões se tornam muito mais importantes.”

Nos anos anteriores, os provedores de modelos de IA tentaram impedir que seus chatbots de IA respondessem a perguntas que poderiam levar a respostas “inseguras”. Quase todas as empresas de IA impediram seus chatbots de IA de responder a perguntas sobre a eleição de 2024 para presidente dos EUA. Essa foi considerada uma decisão segura e responsável na época.

Mas as mudanças da OpenAI em seu Modelo Específico sugerem que podemos estar entrando em uma nova era do que “segurança da IA” realmente significa, onde permitir que um modelo de IA responda a tudo e a todos é considerado mais responsável do que tomar decisões pelos usuários.

Ball afirma que isso é parcialmente porque os modelos de IA estão simplesmente melhores agora. A OpenAI fez progressos significativos na alinhamento de modelos de IA; seus últimos modelos de raciocínio consideram a política de segurança da IA da empresa antes de responder. Isso permite que os modelos de IA forneçam respostas melhores para perguntas delicadas.

É claro que Elon Musk foi o primeiro a implementar “liberdade de expressão” no chatbot Grok da xAI, talvez antes que a empresa estivesse realmente pronta para lidar com questões sensíveis. Ainda pode ser muito cedo para os principais modelos de IA, mas agora, outros estão abraçando a mesma ideia.

Mudança de valores no Vale do Silício

Convidados, incluindo Mark Zuckerberg, Lauren Sanchez, Jeff Bezos, Sundar Pichai e Elon Musk, comparecem à Inauguração de Donald Trump.Créditos da Imagem:Julia Demaree Nikhinson (abre em nova janela) / Getty Images

Mark Zuckerberg causou alvoroço no mês passado ao reorientar os negócios da Meta em torno dos princípios da Primeira Emenda. Ele elogiou Elon Musk no processo, dizendo que o proprietário do X tomou a abordagem certa ao usar as Community Notes — um programa de moderação de conteúdo guiado pela comunidade — para salvaguardar a liberdade de expressão.

Na prática, tanto o X quanto a Meta acabaram desmontando suas longas equipes de confiança e segurança, permitindo mais postagens controversas em suas plataformas e amplificando vozes conservadoras.

Mudanças no X podem ter prejudicado seus relacionamentos com anunciantes, mas isso pode ter mais a ver com Musk, que tomou a passo incomum de processar alguns deles por boicotar a plataforma. Os primeiros sinais indicam que os anunciantes da Meta não foram afetados pela mudança de liberdade de expressão de Zuckerberg.

Enquanto isso, muitas empresas de tecnologia além do X e Meta têm se afastado de políticas voltadas para a esquerda que dominaram o Vale do Silício nas últimas décadas. Google, Amazon e Intel eliminaram ou reduziram suas iniciativas de diversidade no último ano.

A OpenAI pode estar retrocedendo também. O criador do ChatGPT parece ter removido recentemente um compromisso com diversidade, equidade e inclusão de seu site.

À medida que a OpenAI embarca em um dos maiores projetos de infraestrutura americana já realizados com o Stargate, um datacenter de IA de $500 bilhões, seu relacionamento com a administração Trump se torna cada vez mais importante. Ao mesmo tempo, o criador do ChatGPT busca destronar o Google Search como a principal fonte de informação na internet.

Chegar às respostas corretas pode ser fundamental para ambos.


    dois × um =

    Bolt42