Bolt42

Na segunda-feira, a OpenAI lançou uma nova família de modelos de IA, o GPT-4.1, que, segundo a empresa, superou alguns de seus modelos existentes em certos testes, especialmente em benchmarks de programação. No entanto, o GPT-4.1 não foi acompanhado do relatório de segurança que normalmente acompanha os lançamentos de modelos da OpenAI, conhecido como um cartão de modelo ou sistema.

Na manhã de terça-feira, a OpenAI ainda não havia publicado um relatório de segurança para o GPT-4.1 — e parece que não tem planos para isso. Em uma declaração ao TechCrunch, o porta-voz da OpenAI, Shaokyi Amdo, disse que “o GPT-4.1 não é um modelo de fronteira, então não haverá um cartão de sistema separado lançado para ele”.

É bastante comum que laboratórios de IA publiquem relatórios de segurança mostrando os tipos de testes que conduziram internamente e com parceiros externos para avaliar a segurança de modelos específicos. Esses relatórios, ocasionalmente, revelam informações desfavoráveis, como que um modelo tende a enganar humanos ou é perigosamente persuasivo. Em geral, a comunidade de IA percebe esses relatórios como esforços de boa-fé por parte dos laboratórios de IA para apoiar pesquisas independentes e testes de segurança.

Mas, nos últimos meses, laboratórios de IA de destaque parecem ter reduzido seus padrões de relatórios, levando a uma reação negativa de pesquisadores de segurança. Alguns, como o Google, atrasaram a publicação de relatórios de segurança, enquanto outros publicaram relatórios faltando nos detalhes habituais.

A recente trajetória da OpenAI também não é excepcional. Em dezembro, a empresa foi criticada por lançar um relatório de segurança contendo resultados de benchmark para um modelo diferente do que foi implantado em produção. No mês passado, a OpenAI lançou um modelo, deep research, semanas antes de publicar o cartão de sistema para esse modelo.

Steven Adler, um ex-pesquisador de segurança da OpenAI, observou ao TechCrunch que os relatórios de segurança não são obrigatórios por nenhum lois ou regulamento — são voluntários. No entanto, a OpenAI fez vários compromissos com os governos para aumentar a transparência em torno de seus modelos. Antes da Cúpula de Segurança de IA do Reino Unido em 2023, a OpenAI, em uma postagem de blog, chamou os cartões de sistema de “uma parte fundamental” de sua abordagem à responsabilidade. E, na preparação para a Cúpula de Ação de IA em Paris em 2025, a OpenAI afirmou que os cartões de sistema fornecem insights valiosos sobre os riscos de um modelo.

“Os cartões de sistema são a principal ferramenta de transparência da indústria de IA para descrever quais testes de segurança foram realizados”, disse Adler ao TechCrunch em um email. “As normas e compromissos de transparência de hoje são, em última análise, voluntários, portanto, cabe a cada empresa de IA decidir se ou quando liberar um cartão de sistema para um determinado modelo.”

O GPT-4.1 está sendo lançado sem um cartão de sistema em um momento em que funcionários atuais e antigos estão levantando preocupações sobre as práticas de segurança da OpenAI. Na semana passada, Adler e outros 11 ex-funcionários da OpenAI apresentaram um projeto de amigo da corte no caso de Elon Musk contra a OpenAI, argumentando que uma OpenAI com fins lucrativos pode cortar custos no trabalho de segurança. O Financial Times relatou recentemente que a criadora do ChatGPT, pressionada pela concorrência, cortou a quantidade de tempo e recursos que aloca a testadores de segurança.

Embora o modelo mais capaz da família GPT-4.1, o GPT-4.1, não seja o de melhor desempenho no portfólio da OpenAI, ele traz melhorias substanciais em eficiência e latência. Thomas Woodside, co-fundador e analista de políticas do Secure AI Project, disse ao TechCrunch que as melhorias de desempenho tornam um relatório de segurança ainda mais crítico. Quanto mais sofisticado o modelo, maior o risco que ele pode representar, disse ele.

Muitos laboratórios de IA rejeitaram esforços para codificar requisitos de relatórios de segurança em lei. Por exemplo, a OpenAI se opôs ao SB 1047 da Califórnia, que exigiria que muitos desenvolvedores de IA auditassem e publicassem avaliações de segurança sobre os modelos que tornam públicos.


    1 × cinco =

    Bolt42