Sure, here’s the rewritten content in Portuguese while keeping the HTML tags intact:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Participe do evento confiável por líderes empresariais há quase duas décadas. O VB Transform reúne as pessoas que estão construindo uma verdadeira estratégia de IA para empresas. <a target="_blank" href="http://vbtransform.com/" target="_blank" rel="noreferrer noopener">Saiba mais</a></em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator -->
</div>
<p>Usuários regulares do ChatGPT (incluindo o autor deste artigo) podem ou não ter notado que o chatbot popular da OpenAI permite que os usuários entrem em um “chat temporário”, projetado para apagar todas as informações trocadas entre o usuário e o modelo de IA subjacente assim que a sessão de chat for encerrada.</p>
<p>Além disso, a OpenAI também permite que os usuários excluam manualmente sessões anteriores do ChatGPT na barra lateral esquerda nos aplicativos web e desktop/móvel, clicando com o botão esquerdo ou controlando o clique, ou pressionando/long pressing sobre elas no seletor.</p>
<figure class="wp-block-image size-full is-resized"><img decoding="async" width="245" height="167" src="https://venturebeat.com/wp-content/uploads/2025/06/Screenshot-2025-06-06-at-1.39.52%E2%80%AFPM.png" alt="" class="wp-image-3010675" style="width:838px;height:auto"/></figure>
<p>No entanto, nesta semana, a OpenAI enfrentou críticas de alguns usuários do ChatGPT após descobrirem que a empresa <em>não</em> estava realmente excluindo esses registros de chat, conforme indicado anteriormente.</p>
<p>“Você está me dizendo que meus chats excluídos do ChatGPT não foram realmente deletados e [estão] sendo salvos para serem investigados por um juiz?” postou o usuário X <a target="_blank" href="https://x.com/ns123abc/status/1930526246594650132" target="_blank" rel="noreferrer noopener">@ns123abc</a>. O comentário atraiu mais de um milhão de visualizações.</p>
<p>Outro usuário, <a target="_blank" href="https://x.com/kepano/status/1930408120968458546" target="_blank" rel="noreferrer noopener">@kepano</a>, acrescentou: “você pode ‘excluir’ um chat do ChatGPT, mas todos os chats devem ser retidos devido a obrigações legais?”.</p>
<p>Como o influenciador de IA e engenheiro de software <a target="_blank" href="https://simonwillison.net/2025/Jun/5/openai-court-order/" target="_blank" rel="noreferrer noopener">Simon Willison escreveu em seu blog pessoal</a>: “Clientes pagantes da [OpenAI] podem muito bem decidir mudar para outros provedores que podem oferecer políticas de retenção que não são subvertidas por esta ordem judicial!”</p>
<p>Em vez disso, a OpenAI confirmou que tem preservado chats de usuários excluídos e temporários desde meados de maio de 2025, em resposta a uma ordem de um tribunal federal, embora não tenha informado isso aos usuários até 5 de junho.</p>
<p>A ordem, reproduzida abaixo e emitida em 13 de maio de 2025, pela juíza magistrada dos EUA, Ona T. Wang, exige que a OpenAI “preserve e segmente todos os dados de log de saída que, de outra forma, seriam excluídos de forma contínua”, incluindo chats excluídos a pedido do usuário ou devido a obrigações de privacidade.</p>
<p>A diretiva do tribunal decorre do <em>The New York Times (NYT) v. OpenAI e Microsoft</em>, um caso de direitos autorais agora <a target="_blank" href="https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html">antigo de um ano e meio</a> ainda em discussão. Os advogados do <em>NYT</em> alegam que os modelos de linguagem da OpenAI reproduzem conteúdos de notícias protegidos por direitos autorais literalmente. Os autores da ação argumentam que os registros, incluindo aqueles que os usuários podem ter excluído, poderiam conter saídas infringentes relevantes para o processo.</p>
<p>Embora a OpenAI tenha cumprido imediatamente a ordem, não notificou publicamente os usuários afetados por mais de três semanas, emitindo uma postagem em blog e um FAQ descrevendo o mandato legal e delineando quem está impactado.</p>
<p>No entanto, a OpenAI atribui a culpa diretamente ao <em>NYT</em> e à ordem da juíza, dizendo que acredita que a demanda de preservação é “infundada”.</p>
<h2 class="wp-block-heading" id="h-openai-clarifies-what-s-going-on-with-the-court-order-to-preserve-chatgpt-user-logs-including-which-chats-are-impacted">OpenAI esclarece o que está acontecendo com a ordem do tribunal para preservar logs de usuários do ChatGPT — incluindo quais chats estão impactados</h2>
<p>Em um <a target="_blank" href="https://openai.com/index/response-to-nyt-data-demands/" target="_blank" rel="noreferrer noopener">postagem no blog publicada ontem</a>, o COO da OpenAI, Brad Lightcap, defendeu a posição da empresa e declarou que estava advogando pela privacidade e segurança dos usuários contra uma ordem judicial excessivamente ampla, escrevendo:</p>
<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>“O New York Times e outros autores fizeram uma demanda ampla e desnecessária em sua ação infundada contra nós: reter dados de clientes do ChatGPT e dos clientes da API indefinidamente. Isso conflictuaria fundamentalmente com os compromissos de privacidade que fazemos aos nossos usuários.”</em></p>
</blockquote>
<p>A postagem esclareceu que usuários do ChatGPT Free, Plus, Pro e Team, juntamente com clientes da API sem um acordo de zero retenção de dados (ZDR), são afetados pela ordem de preservação, o que significa que mesmo que os usuários desses planos excluam seus chats ou usem o modo de chat temporário, seus chats serão armazenados por tempo indeterminado.</p>
<p>No entanto, assinantes do ChatGPT Enterprise e usuários Edu, bem como clientes da API usando pontos finais de ZDR, <em>não</em> são impactados pela ordem e seus chats serão excluídos conforme direcionado.</p>
<p>Os dados retidos estão sob determinação legal, ou seja, são armazenados em um sistema seguro e segregado e acessados apenas por um pequeno número de pessoal de segurança e jurídica.</p>
<p>“Esses dados não são compartilhados automaticamente com <em>The New York Times</em> ou qualquer outra pessoa,” enfatizou Lightcap na postagem da OpenAI.</p>
<h2 class="wp-block-heading" id="h-sam-altman-floats-new-concept-of-ai-privilege-allowing-for-confidential-conversations-between-models-and-users-similar-to-speaking-to-a-human-doctor-or-lawyer">Sam Altman apresenta novo conceito de ‘privilegiado de IA’ permitindo conversas confidenciais entre modelos e usuários, semelhante a falar com um médico ou advogado humano</h2>
<p>O CEO e cofundador da OpenAI, Sam Altman, também abordou publicamente a questão em uma postagem de sua conta na <a target="_blank" href="https://x.com/sama/status/1930785054005076100" target="_blank" rel="noreferrer noopener">rede social X na noite passada</a>, escrevendo:</p>
<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>“recentemente, o NYT pediu a um tribunal que nos forçasse a não excluir nenhum chat de usuários. Achamos que esse foi um pedido inadequado que estabelece um precedente ruim. Estamos apelando da decisão. Lutaremos contra qualquer demanda que comprometa a privacidade de nossos usuários; esse é um princípio fundamental.”</em></p>
</blockquote>
<p>Ele também sugeriu que uma estrutura legal e ética mais ampla pode ser necessária para a privacidade da IA:</p>
<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>“temos pensado recentemente sobre a necessidade de algo como ‘privilegio de IA’; isso realmente acelera a necessidade de ter essa conversa.”</em></p>
</blockquote>
<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p><em>“na minha opinião, falar com uma IA deve ser como falar com um advogado ou um médico.”</em></p>
<p><em>“espero que a sociedade consiga resolver isso em breve.”</em></p>
</blockquote>
<p>A noção de privilégio de IA — como um padrão legal potencial — ecoa a confidencialidade advogado-cliente e médico-paciente.</p>
<p>Se tal estrutura ganharia tração nos tribunais ou círculos de políticas ainda está por ser visto, mas os comentários de Altman indicam que a OpenAI pode cada vez mais advogar por tal mudança.</p>
<h2 class="wp-block-heading" id="h-what-comes-next-for-openai-and-your-temporary-deleted-chats">O que vem a seguir para a OpenAI e seus chats temporários/excluídos?</h2>
<p>A OpenAI apresentou uma objeção formal à ordem do tribunal, pedindo que seja anulada.</p>
<p>Nos documentos do tribunal, a empresa argumenta que a demanda carece de uma base fática e que preservar bilhões de pontos de dados adicionais não é nem necessário nem proporcional.</p>
<p>A juíza Wang, em uma audiência de 27 de maio, indicou que a ordem é temporária. Ela instruiu as partes a desenvolver um plano de amostragem para testar se os dados de usuários excluídos diferem materialmente dos logs retidos. A OpenAI foi ordenada a submeter essa proposta até hoje (6 de junho), mas ainda não vi o arquivamento.</p>
<h2 class="wp-block-heading" id="h-what-it-means-for-enterprises-and-decision-makers-in-charge-of-chatgpt-usage-in-corporate-environments">O que isso significa para empresas e tomadores de decisão responsáveis pelo uso do ChatGPT em ambientes corporativos</h2>
<p>Embora a ordem isente clientes do ChatGPT Enterprise e clientes da API que usam pontos finais de ZDR, as implicações legais e reputacionais mais amplas são extremamente importantes para profissionais responsáveis pela implantação e escalonamento de soluções de IA dentro das organizações.</p>
<p>Aqueles que supervisionam o ciclo de vida completo de modelos de linguagem de grande porte (LLMs) — desde a ingestão de dados até o ajuste fino e a integração — precisarão reavaliar suposições sobre a governança de dados. Se os componentes voltados para o usuário de um LLM estão sujeitos a ordens legais de preservação, isso levanta questões urgentes sobre onde os dados vão depois de saírem de um ponto final seguro e como isolar, registrar ou anonimizar interações de alto risco.</p>
<p>Qualquer plataforma que toque APIs da OpenAI deve validar quais pontos finais (ZDR vs não-ZDR) estão sendo utilizados e garantir que as políticas de manejo de dados sejam refletidas em acordos de usuários, logs de auditoria e documentação interna.</p>
<p>Mesmo se pontos finais ZDR forem utilizados, as políticas do ciclo de vida dos dados podem precisar de revisão para confirmar se sistemas de downstream (análise, registro, backup) não retêm inadvertidamente interações transitórias que foram presumidas efêmeras.</p>
<p>Oficiais de segurança responsáveis pela gestão de riscos devem agora expandir a modelagem de ameaças para incluir descoberta legal como uma possível via. As equipes devem verificar se as práticas de retenção de back-end da OpenAI estão alinhadas com os controles internos e avaliações de risco de terceiros, e se os usuários estão confiando em recursos como “chat temporário” que não funcionam mais como esperado sob a preservação legal.</p>
<h2 class="wp-block-heading" id="h-a-new-flashpoint-for-user-privacy-and-security">Um novo ponto de contenda para a privacidade e segurança do usuário</h2>
<p>Este momento não é apenas uma disputa legal; é um ponto de contenda na conversa em evolução sobre privacidade de IA e direitos dos dados. Ao enquadrar a questão como uma questão de “privilégio de IA”, a OpenAI está efetivamente propondo um novo contrato social sobre como sistemas inteligentes lidam com entradas confidenciais.</p>
<p>Se os tribunais ou legisladores aceitarão essa formulação ainda é incerto. Mas, por enquanto, a OpenAI está em um ato de equilíbrio — entre conformidade legal, garantias empresariais e confiança do usuário — enfrentando perguntas mais altas sobre quem controla seus dados quando você fala com uma máquina.</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container vb">
<div class="Boilerplate__newsletter-main">
<p><strong>Insights diários sobre casos de uso empresarial com o VB Daily</strong></p>
<p class="copy">Se você quer impressionar seu chefe, o VB Daily tem a solução. Damos a você as informações internas sobre o que as empresas estão fazendo com IA generativa, desde mudanças regulatórias até implementações práticas, para que você possa compartilhar insights para o máximo ROI.</p>
<p class="Form__newsletter-legal">Leia nossa Política de Privacidade</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por se inscrever. Confira mais newsletters do VB aqui.
</p>
<p class="Form__error">Ocorreu um erro.</p>
</div>
<div class="image-container">
<img src="https://venturebeat.com/wp-content/themes/vb-news/brand/img/vb-daily-phone.png" alt=""/>
</div>
</div>
<!-- /wp:shortcode -->
</div>
</div>
Conteúdo relacionado
Seguro de Responsabilidade Civil para IA: O Próximo Passo para Proteger Negócios de Falhas em IA
[the_ad id="145565"] As empresas hoje dependem fortemente da Inteligência Artificial (IA) para executar tarefas importantes, como lidar com perguntas de clientes, identificar…
Voice AI That Delivers: New TTS Model Increases Sales by 15% for Leading Brands in Portuguese
[the_ad id="145565"] Certainly! Here's the rewritten content in Portuguese while retaining the HTML tags: <div> <div id="boilerplate_2682874"…
Google afirma que a prévia do Gemini 2.5 Pro supera o DeepSeek R1 e o Grok 3 Beta em desempenho de programação.
[the_ad id="145565"] Participe do evento confiável por líderes empresariais há quase duas décadas. O VB Transform reúne pessoas que estão construindo uma verdadeira…