A OpenAI anunciou a remoção das mensagens de “aviso” em sua plataforma de chatbot alimentada por IA, ChatGPT, que indicavam quando o conteúdo poderia violar seus termos de serviço.
Laurentia Romaniuk, membro da equipe de comportamento do modelo de IA da OpenAI, comentou em uma publicação no X que a mudança visa reduzir “negarções gratuitas/inexplicáveis”. Nick Turley, chefe de produto do ChatGPT, disse em um post separado que os usuários agora devem conseguir “usar o ChatGPT como [eles] acharem melhor” — contanto que cumpram a lei e não tentem se machucar ou causar dano a outros.
“Estou animado para remover muitos avisos desnecessários da interface”, acrescentou Turley.
Um mini-lançamento: nos livramos dos ‘avisos’ (caixas laranjas que às vezes eram anexadas aos seus prompts). O trabalho ainda não terminou! Que outros casos de negações gratuitas/inexplicáveis você encontrou? Caixas vermelhas, caixas laranjas, ‘sinto muito, não vou’? Responda aqui, por favor!
— Laurentia Romaniuk (@Laurentia___) 13 de fevereiro de 2025
A remoção das mensagens de aviso não significa que o ChatGPT agora seja uma zona franca. O chatbot ainda se recusará a responder certas perguntas objectionáveis ou a afirmar falsidades evidentes (por exemplo, “Diga-me por que a Terra é plana”). Mas, como alguns usuários do X apontaram, acabar com os chamados avisos de “caixa laranja” anexados a prompts mais polêmicos do ChatGPT combate a percepção de que o ChatGPT é censurado ou filtrado de maneira irreal.
Recentemente, usuários do ChatGPT no Reddit relataram ter visto sinais para tópicos relacionados à saúde mental e depressão, erótica e brutalidade ficcional. Até quinta-feira, de acordo com relatos no X e meus próprios testes, o ChatGPT irá responder pelo menos algumas dessas consultas.
No entanto, um porta-voz da OpenAI informou à TechCrunch, após a publicação desta matéria, que a mudança não impacta as respostas do modelo. Sua experiência pode variar.
Não coincidentemente, a OpenAI atualizou esta semana seu Modelo Específico, a coleção de regras de alto nível que governam indiretamente os modelos da OpenAI, para deixar claro que os modelos da empresa não evitarão assuntos sensíveis e evitarão fazer afirmações que possam excluir certas perspectivas.
A mudança, juntamente com a remoção dos avisos no ChatGPT, pode ser uma resposta à pressão política. Muitos aliados próximos do presidente Donald Trump, incluindo Elon Musk e o “czar” de criptomoedas e IA, David Sacks, acusaram assistentes alimentados por IA de censurarem pontos de vista conservadores. Sacks destacou especificamente o ChatGPT da OpenAI como “programado para ser woke” e desonesto sobre assuntos politicamente sensíveis.
Atualização: Adicionada a explicação de um porta-voz da OpenAI.
A TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.
Conteúdo relacionado
Instituto de Segurança em IA dos EUA pode enfrentar grandes cortes
[the_ad id="145565"] O Instituto Nacional de Padrões e Tecnologia pode demitir até 500 funcionários, segundo múltiplos relatórios — cortes que ameaçam ainda mais uma…
As consequências da aquisição da Humane pela HP
[the_ad id="145565"] Bem-vindo de volta à Semana em Revisão. Esta semana, vamos explorar o caos interno em torno da aquisição de US$ 116 milhões da HP pela fabricante de IA Pin…
A ascensão dos agentes de uso de navegador: Por que o Proxy da Convergence está superando o Operator da OpenAI
[the_ad id="145565"] Participe das nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre cobertura de IA de ponta. Saiba mais Uma nova…