A OpenAI pode em breve exigir que as organizações completem um processo de verificação de identidade para acessar certos modelos de IA futuros, de acordo com uma página de suporte publicada no site da empresa na semana passada.
O processo de verificação, denominado Organização Verificada, é “uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma da OpenAI”, diz a página. A verificação requer um documento de identidade emitido pelo governo de um dos países suportados pela API da OpenAI. Um documento de identidade pode verificar apenas uma organização a cada 90 dias e nem todas as organizações serão elegíveis para a verificação, afirma a OpenAI.
“Na OpenAI, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e utilizada de forma segura”, lê-se na página. “Infelizmente, uma pequena minoria de desenvolvedores utiliza intencionalmente as APIs da OpenAI em violação das nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, enquanto continuamos a disponibilizar modelos avançados para a comunidade de desenvolvedores em geral.”
A OpenAI lançou um novo status de Organização Verificada como uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma, e para estarem prontos para a “próxima emocionante liberação de modelo”.
– A verificação leva alguns minutos e requer um… pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) 12 de abril de 2025
O novo processo de verificação pode ter a intenção de reforçar a segurança em torno dos produtos da OpenAI à medida que se tornam mais sofisticados e capazes. A empresa publicou vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, incluindo por grupos supostamente baseados na Coreia do Norte.
Também pode ter como objetivo prevenir o roubo de propriedade intelectual. De acordo com um relatório da Bloomberg no início deste ano, a OpenAI estava investigando se um grupo vinculado à DeepSeek, o laboratório de IA baseado na China, exfiltrou grandes quantidades de dados através de sua API no final de 2024, possivelmente para treinar modelos — uma violação dos termos da OpenAI.
A OpenAI bloqueou o acesso aos seus serviços na China no verão passado.
Conteúdo relacionado
Os debates sobre a avaliação de IA chegaram aos Pokémon
[the_ad id="145565"] Nem mesmo Pokémon está a salvo da controvérsia de benchmarking de IA. Na semana passada, uma publicação no X se tornou viral, afirmando que o mais recente…
RLWRLD levanta $14,8 milhões para desenvolver um modelo fundamental para robótica.
[the_ad id="145565"] À medida que a robótica avançou, a indústria tem adotado cada vez mais robôs para automatizar diversas tarefas repetitivas. Em 2023, mais de 540.000 novos…
Xaba levanta $6 milhões da Hitachi Ventures para desenvolver cérebros sintéticos para robôs industriais
[the_ad id="145565"] Xaba, uma startup que desenvolve cérebros sintéticos para robôs industriais sem necessidade de programação, anunciou que garantiu um investimento inicial…