Bolt42

A OpenAI pode em breve exigir que as organizações completem um processo de verificação de identidade para acessar certos modelos de IA futuros, de acordo com uma página de suporte publicada no site da empresa na semana passada.

O processo de verificação, denominado Organização Verificada, é “uma nova forma para os desenvolvedores desbloquearem acesso aos modelos e capacidades mais avançados na plataforma da OpenAI”, diz a página. A verificação requer um documento de identidade emitido pelo governo de um dos países suportados pela API da OpenAI. Um documento de identidade pode verificar apenas uma organização a cada 90 dias e nem todas as organizações serão elegíveis para a verificação, afirma a OpenAI.

“Na OpenAI, levamos nossa responsabilidade a sério para garantir que a IA seja amplamente acessível e utilizada de forma segura”, lê-se na página. “Infelizmente, uma pequena minoria de desenvolvedores utiliza intencionalmente as APIs da OpenAI em violação das nossas políticas de uso. Estamos adicionando o processo de verificação para mitigar o uso inseguro da IA, enquanto continuamos a disponibilizar modelos avançados para a comunidade de desenvolvedores em geral.”

O novo processo de verificação pode ter a intenção de reforçar a segurança em torno dos produtos da OpenAI à medida que se tornam mais sofisticados e capazes. A empresa publicou vários relatórios sobre seus esforços para detectar e mitigar o uso malicioso de seus modelos, incluindo por grupos supostamente baseados na Coreia do Norte.

Também pode ter como objetivo prevenir o roubo de propriedade intelectual. De acordo com um relatório da Bloomberg no início deste ano, a OpenAI estava investigando se um grupo vinculado à DeepSeek, o laboratório de IA baseado na China, exfiltrou grandes quantidades de dados através de sua API no final de 2024, possivelmente para treinar modelos — uma violação dos termos da OpenAI.

A OpenAI bloqueou o acesso aos seus serviços na China no verão passado.


    um × 4 =

    Bolt42