A OpenAI anunciou a remoção das mensagens de “aviso” em sua plataforma de chatbot alimentada por IA, ChatGPT, que indicavam quando o conteúdo poderia violar seus termos de serviço.
Laurentia Romaniuk, membro da equipe de comportamento do modelo de IA da OpenAI, comentou em uma publicação no X que a mudança visa reduzir “negarções gratuitas/inexplicáveis”. Nick Turley, chefe de produto do ChatGPT, disse em um post separado que os usuários agora devem conseguir “usar o ChatGPT como [eles] acharem melhor” — contanto que cumpram a lei e não tentem se machucar ou causar dano a outros.
“Estou animado para remover muitos avisos desnecessários da interface”, acrescentou Turley.
Um mini-lançamento: nos livramos dos ‘avisos’ (caixas laranjas que às vezes eram anexadas aos seus prompts). O trabalho ainda não terminou! Que outros casos de negações gratuitas/inexplicáveis você encontrou? Caixas vermelhas, caixas laranjas, ‘sinto muito, não vou’? Responda aqui, por favor!
— Laurentia Romaniuk (@Laurentia___) 13 de fevereiro de 2025
A remoção das mensagens de aviso não significa que o ChatGPT agora seja uma zona franca. O chatbot ainda se recusará a responder certas perguntas objectionáveis ou a afirmar falsidades evidentes (por exemplo, “Diga-me por que a Terra é plana”). Mas, como alguns usuários do X apontaram, acabar com os chamados avisos de “caixa laranja” anexados a prompts mais polêmicos do ChatGPT combate a percepção de que o ChatGPT é censurado ou filtrado de maneira irreal.
Recentemente, usuários do ChatGPT no Reddit relataram ter visto sinais para tópicos relacionados à saúde mental e depressão, erótica e brutalidade ficcional. Até quinta-feira, de acordo com relatos no X e meus próprios testes, o ChatGPT irá responder pelo menos algumas dessas consultas.
No entanto, um porta-voz da OpenAI informou à TechCrunch, após a publicação desta matéria, que a mudança não impacta as respostas do modelo. Sua experiência pode variar.
Não coincidentemente, a OpenAI atualizou esta semana seu Modelo Específico, a coleção de regras de alto nível que governam indiretamente os modelos da OpenAI, para deixar claro que os modelos da empresa não evitarão assuntos sensíveis e evitarão fazer afirmações que possam excluir certas perspectivas.
A mudança, juntamente com a remoção dos avisos no ChatGPT, pode ser uma resposta à pressão política. Muitos aliados próximos do presidente Donald Trump, incluindo Elon Musk e o “czar” de criptomoedas e IA, David Sacks, acusaram assistentes alimentados por IA de censurarem pontos de vista conservadores. Sacks destacou especificamente o ChatGPT da OpenAI como “programado para ser woke” e desonesto sobre assuntos politicamente sensíveis.
Atualização: Adicionada a explicação de um porta-voz da OpenAI.
A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.
Conteúdo relacionado
O Vision Pro receberá Inteligência Apple em abril.
[the_ad id="145565"] A Apple Intelligence está a caminho do Vision Pro como parte de uma próxima atualização do sistema operacional. A Apple confirmou na sexta-feira que sua…
Sakana retrata declarações sobre sua IA que alega acelerar drasticamente o treinamento de modelos
[the_ad id="145565"] Nesta semana, a Sakana AI, uma startup apoiada pela Nvidia que arrecadou centenas de milhões de dólares de fundos de capital de risco, fez uma afirmação…
A 1X da Noruega está desenvolvendo um robô humanóide para o lar
[the_ad id="145565"] A empresa norueguesa de robótica 1X apresentou na sexta-feira seu mais recente robô doméstico, o Neo Gamma. O sistema humanoide sucederá o Neo Beta, que…