A OpenAI pode em breve exigir que as organizações completem um processo de verificação de identidade para acessar certos modelos de IA futuros, de acordo com uma página de suporte publicada no site da empresa na semana passada.
O processo de verificação, denominado Organização Verificada, é “uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma da OpenAI”, diz a página. A verificação requer um documento de identidade emitido pelo governo de um dos países suportados pela API da OpenAI. Um documento de identidade pode verificar apenas uma organização a cada 90 dias e nem todas as organizações serão elegíveis para a verificação, afirma a OpenAI.
“Na OpenAI, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e utilizada de forma segura”, lê-se na página. “Infelizmente, uma pequena minoria de desenvolvedores utiliza intencionalmente as APIs da OpenAI em violação das nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, enquanto continuamos a disponibilizar modelos avançados para a comunidade de desenvolvedores em geral.”
A OpenAI lançou um novo status de Organização Verificada como uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma, e para estarem prontos para a “próxima emocionante liberação de modelo”.
– A verificação leva alguns minutos e requer um… pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) 12 de abril de 2025
O novo processo de verificação pode ter a intenção de reforçar a segurança em torno dos produtos da OpenAI à medida que se tornam mais sofisticados e capazes. A empresa publicou vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, incluindo por grupos supostamente baseados na Coreia do Norte.
Também pode ter como objetivo prevenir o roubo de propriedade intelectual. De acordo com um relatório da Bloomberg no início deste ano, a OpenAI estava investigando se um grupo vinculado à DeepSeek, o laboratório de IA baseado na China, exfiltrou grandes quantidades de dados através de sua API no final de 2024, possivelmente para treinar modelos — uma violação dos termos da OpenAI.
A OpenAI bloqueou o acesso aos seus serviços na China no verão passado.
Conteúdo relacionado
Sessões TC: Contagem Regressiva de Trivia de IA — ganhe ingressos em grande estilo!
[the_ad id="145565"] TechCrunch Sessions: AI chega ao Zellerbach Hall da UC Berkeley no dia 5 de junho — e hoje é a sua chance de brilhar no trivia de IA e ganhar dois…
Como os Agentes de IA estão Transformando o Setor Educacional: Uma Análise da Kira Learning e Outras Iniciativas
[the_ad id="145565"] Here’s the rewritten content with HTML tags retained: <p>As salas de aula de hoje estão mudando rapidamente devido à Inteligência Artificial (IA). Os…
QwenLong-L1 resolve o desafio de raciocínio de longo contexto que confunde os LLMs atuais.
[the_ad id="145565"] Inscreva-se em nossos boletins diários e semanais para receber as últimas atualizações e conteúdo exclusivo sobre nossas coberturas líderes de mercado em…