Bolt42

Mais de dois anos após o Google ter sido pego de surpresa pelo lançamento do ChatGPT da OpenAI, a empresa acelerou significativamente seu ritmo.

No final de março, o Google lançou um modelo de raciocínio de IA, o Gemini 2.5 Pro, que lidera o setor em várias métricas que medem capacidades de codificação e matemática. Esse lançamento ocorreu apenas três meses após o gigante da tecnologia ter apresentado outro modelo, o Gemini 2.0 Flash, que era o estado da arte na época.

Tulsee Doshi, diretora e chefe de produto do Gemini no Google, disse ao TechCrunch em uma entrevista que a crescente frequência de lançamentos de modelos da empresa faz parte de um esforço concentrado para acompanhar a evolução rápida da indústria de IA.

“Ainda estamos tentando entender qual é a melhor forma de lançar esses modelos — qual é a maneira correta de receber feedback,” afirmou Doshi.

No entanto, a aceleração no cronograma de lançamentos parece ter um custo. O Google ainda não publicou relatórios de segurança para seus últimos modelos, incluindo o Gemini 2.5 Pro e o Gemini 2.0 Flash, levantando preocupações de que a empresa está priorizando a velocidade em detrimento da transparência.

Atualmente, é bastante comum que laboratórios de IA de ponta — incluindo OpenAI, Anthropic e Meta — relatem testes de segurança, avaliações de desempenho e casos de uso sempre que lançam um novo modelo. Esses relatórios, às vezes chamados de “cartões de sistema” ou “cartões de modelo”, foram propostos há anos por pesquisadores da indústria e da academia. O Google foi, na verdade, um dos primeiros a sugerir cartões de modelo em um artigo de pesquisa de 2019, chamando-os de “uma abordagem para práticas responsáveis, transparentes e responsáveis em aprendizado de máquina.”

Doshi afirmou ao TechCrunch que a empresa não publicou um cartão de modelo para o Gemini 2.5 Pro porque considera o modelo uma liberação “experimental”. O objetivo dessas liberações experimentais é colocar um modelo de IA disponível de maneira limitada, obter feedback e iterar sobre o modelo antes de um lançamento em produção, disse ela.

O Google pretende publicar o cartão de modelo do Gemini 2.5 Pro quando o modelo estiver disponível ao público geral, de acordo com Doshi, acrescentando que a empresa já realizou testes de segurança e desafios adversariais.

Em uma mensagem posterior, um porta-voz do Google disse ao TechCrunch que a segurança continua sendo uma “prioridade máxima” para a empresa e que planeja liberar mais documentação sobre seus modelos de IA, incluindo o Gemini 2.0 Flash, no futuro. O Gemini 2.0 Flash, que está disponível para o público, também não possui um cartão de modelo. O último cartão de modelo publicado pelo Google foi para o Gemini 1.5 Pro, que saiu há mais de um ano.

Os cartões de sistema e cartões de modelo fornecem informações úteis — e, às vezes, desfavoráveis — que as empresas nem sempre anunciam amplamente sobre sua IA. Por exemplo, o cartão de sistema que a OpenAI lançou para seu modelo de raciocínio o1 revelou que o modelo da empresa tende a “planejar” contra humanos e secretamente persegue objetivos próprios.

De modo geral, a comunidade de IA percebe esses relatórios como esforços de boa-fé para apoiar pesquisas independentes e avaliações de segurança, mas os relatórios adquiriram importância adicional nos últimos anos. Como notado anteriormente pela Transformer, o Google disse ao governo dos EUA em 2023 que publicaria relatórios de segurança para todos os lançamentos de modelos de IA “significativos” e públicos “dentro do escopo”. A empresa fez um compromisso semelhante com outros governos, prometendo “fornecer transparência pública.”

Houve esforços regulatórios em níveis federal e estadual nos EUA para criar padrões de relatório de segurança para desenvolvedores de modelos de IA. No entanto, esses esforços foram recebidos com adoção e sucesso limitados. Uma das tentativas mais notáveis foi o veto do projeto de lei da Califórnia SB 1047, que a indústria de tecnologia se opôs veementemente. Os legisladores também apresentaram propostas de lei que autorizariam o Instituto de Segurança de IA dos EUA, o órgão responsável pela padronização de IA do país, a estabelecer diretrizes para lançamentos de modelos. No entanto, o Instituto de Segurança agora enfrenta possíveis cortes sob a administração Trump.

Pelo que parece, o Google está ficando para trás em algumas de suas promessas de relatar testes de modelos, enquanto ao mesmo tempo envia modelos mais rapidamente do que nunca. Muitos especialistas argumentam que isso cria um mau precedente — especialmente à medida que esses modelos se tornam mais capazes e sofisticados.


    um × três =

    Bolt42