A OpenAI anunciou a remoção das mensagens de “aviso” em sua plataforma de chatbot alimentada por IA, ChatGPT, que indicavam quando o conteúdo poderia violar seus termos de serviço.
Laurentia Romaniuk, membro da equipe de comportamento do modelo de IA da OpenAI, comentou em uma publicação no X que a mudança visa reduzir “negarções gratuitas/inexplicáveis”. Nick Turley, chefe de produto do ChatGPT, disse em um post separado que os usuários agora devem conseguir “usar o ChatGPT como [eles] acharem melhor” — contanto que cumpram a lei e não tentem se machucar ou causar dano a outros.
“Estou animado para remover muitos avisos desnecessários da interface”, acrescentou Turley.
Um mini-lançamento: nos livramos dos ‘avisos’ (caixas laranjas que às vezes eram anexadas aos seus prompts). O trabalho ainda não terminou! Que outros casos de negações gratuitas/inexplicáveis você encontrou? Caixas vermelhas, caixas laranjas, ‘sinto muito, não vou’? Responda aqui, por favor!
— Laurentia Romaniuk (@Laurentia___) 13 de fevereiro de 2025
A remoção das mensagens de aviso não significa que o ChatGPT agora seja uma zona franca. O chatbot ainda se recusará a responder certas perguntas objectionáveis ou a afirmar falsidades evidentes (por exemplo, “Diga-me por que a Terra é plana”). Mas, como alguns usuários do X apontaram, acabar com os chamados avisos de “caixa laranja” anexados a prompts mais polêmicos do ChatGPT combate a percepção de que o ChatGPT é censurado ou filtrado de maneira irreal.
Recentemente, usuários do ChatGPT no Reddit relataram ter visto sinais para tópicos relacionados à saúde mental e depressão, erótica e brutalidade ficcional. Até quinta-feira, de acordo com relatos no X e meus próprios testes, o ChatGPT irá responder pelo menos algumas dessas consultas.
No entanto, um porta-voz da OpenAI informou à TechCrunch, após a publicação desta matéria, que a mudança não impacta as respostas do modelo. Sua experiência pode variar.
Não coincidentemente, a OpenAI atualizou esta semana seu Modelo Específico, a coleção de regras de alto nível que governam indiretamente os modelos da OpenAI, para deixar claro que os modelos da empresa não evitarão assuntos sensíveis e evitarão fazer afirmações que possam excluir certas perspectivas.
A mudança, juntamente com a remoção dos avisos no ChatGPT, pode ser uma resposta à pressão política. Muitos aliados próximos do presidente Donald Trump, incluindo Elon Musk e o “czar” de criptomoedas e IA, David Sacks, acusaram assistentes alimentados por IA de censurarem pontos de vista conservadores. Sacks destacou especificamente o ChatGPT da OpenAI como “programado para ser woke” e desonesto sobre assuntos politicamente sensíveis.
Atualização: Adicionada a explicação de um porta-voz da OpenAI.
A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.
Conteúdo relacionado
Pesquisador de IA renomado lança startup polêmica para substituir todos os trabalhadores humanos em todos os lugares
[the_ad id="145565"] De vez em quando, uma startup do Vale do Silício lança uma missão tão “absurdamente” descrita que é difícil discernir se a startup é real ou apenas uma…
ChatGPT se refere a usuários pelo nome sem solicitação, e alguns acham isso ‘estranho’
[the_ad id="145565"] Alguns usuários do ChatGPT notaram um fenômeno estranho recentemente: O chatbot ocasionalmente se refere a eles pelo nome enquanto raciocina sobre…
De ‘acompanhar’ a ‘nos acompanhar’: Como o Google silenciosamente assumiu a liderança em IA empresarial.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais Há…