A OpenAI pode em breve exigir que as organizações completem um processo de verificação de identidade para acessar certos modelos de IA futuros, de acordo com uma página de suporte publicada no site da empresa na semana passada.
O processo de verificação, denominado Organização Verificada, é “uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma da OpenAI”, diz a página. A verificação requer um documento de identidade emitido pelo governo de um dos países suportados pela API da OpenAI. Um documento de identidade pode verificar apenas uma organização a cada 90 dias e nem todas as organizações serão elegíveis para a verificação, afirma a OpenAI.
“Na OpenAI, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e utilizada de forma segura”, lê-se na página. “Infelizmente, uma pequena minoria de desenvolvedores utiliza intencionalmente as APIs da OpenAI em violação das nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, enquanto continuamos a disponibilizar modelos avançados para a comunidade de desenvolvedores em geral.”
A OpenAI lançou um novo status de Organização Verificada como uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma, e para estarem prontos para a “próxima emocionante liberação de modelo”.
– A verificação leva alguns minutos e requer um… pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) 12 de abril de 2025
O novo processo de verificação pode ter a intenção de reforçar a segurança em torno dos produtos da OpenAI à medida que se tornam mais sofisticados e capazes. A empresa publicou vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, incluindo por grupos supostamente baseados na Coreia do Norte.
Também pode ter como objetivo prevenir o roubo de propriedade intelectual. De acordo com um relatório da Bloomberg no início deste ano, a OpenAI estava investigando se um grupo vinculado à DeepSeek, o laboratório de IA baseado na China, exfiltrou grandes quantidades de dados através de sua API no final de 2024, possivelmente para treinar modelos — uma violação dos termos da OpenAI.
A OpenAI bloqueou o acesso aos seus serviços na China no verão passado.
Conteúdo relacionado
A IBM adquire a startup de análise de dados Seek AI e inaugura um acelerador de IA em Nova York.
[the_ad id="145565"] Na segunda-feira, a IBM anunciou que adquiriu a Seek AI, uma plataforma de IA que permite que os usuários façam perguntas sobre dados empresariais usando…
Sora da OpenAI agora está disponível GRATUITAMENTE para todos os usuários através do Criador de Vídeos do Microsoft Bing no mobile.
[the_ad id="145565"] Here's the rewritten content in Portuguese, maintaining the HTML tags: <div> <div id="boilerplate_2682874" class="post-boilerplate…
Salesforce compra a Moonhub, uma startup desenvolvendo ferramentas de IA para recrutamento.
[the_ad id="145565"] Atualizado às 13h13, horário do Pacífico: Um porta-voz da Salesforce disse ao TechCrunch que a Moonhub não foi adquirida, de fato, pela definição da…