Bolt42

Na quinta-feira, semanas após lançar seu modelo de IA mais poderoso até agora, o Gemini 2.5 Pro, o Google publicou um relatório técnico mostrando os resultados de suas avaliações internas de segurança. No entanto, o relatório é escasso em detalhes, afirmam especialistas, dificultando a determinação dos riscos que o modelo pode representar.

Relatórios técnicos fornecem informações úteis — e, às vezes, desfavoráveis — que as empresas nem sempre divulgam amplamente sobre suas IAs. De modo geral, a comunidade de IA vê esses relatórios como esforços de boa fé para apoiar pesquisas independentes e avaliações de segurança.

O Google adota uma abordagem diferente para relatórios de segurança em comparação a alguns de seus rivais em IA, publicando relatórios técnicos apenas quando considera que um modelo se formou estágios de “experimental”. A empresa também não inclui as descobertas de todas as suas avaliações de “capacidade perigosa” nesses documentos; ela reserva isso para uma Auditoria separada.

Vários especialistas com quem a TechCrunch conversou ficaram desapontados com a escassez do relatório do Gemini 2.5 Pro, que, notaram, não menciona o Frontier Safety Framework (FSF) do Google. O Google introduziu o FSF no ano passado, descrevendo-o como um esforço para identificar futuras capacidades de IA que poderiam causar “dano severo”.

“Este [relatório] é muito escasso, contém informações mínimas e saiu semanas após o modelo já ter sido disponibilizado ao público,” disse Peter Wildeford, co-fundador do Instituto de Política e Estratégia de IA, à TechCrunch. “É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança e a proteção de seus modelos.”

Thomas Woodside, co-fundador do Secure AI Project, disse que, embora esteja satisfeito com a liberação de um relatório para o Gemini 2.5 Pro, ele não está convencido do compromisso da empresa em entregar avaliações de segurança suplementares em tempo hábil. Woodside apontou que a última vez que o Google publicou os resultados de testes de capacidades perigosas foi em junho de 2024 — para um modelo anunciado em fevereiro do mesmo ano.

Não inspirando muita confiança, o Google não disponibilizou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente que a empresa anunciou na semana passada. Um porta-voz informou à TechCrunch que um relatório para o Flash está “a caminho”.

“Espero que isso seja uma promessa do Google para começar a publicar atualizações mais frequentes,” disse Woodside à TechCrunch. “Essas atualizações devem incluir os resultados de avaliações para modelos que ainda não foram implantados publicamente, uma vez que esses modelos também podem representar riscos sérios.”

O Google pode ter sido um dos primeiros laboratórios de IA a propor relatórios padronizados para modelos, mas não é o único que tem sido acusado de não entregar transparência ultimamente. A Meta lançou uma avaliação de segurança igualmente escassa de seus novos modelos abertos Llama 4, e a OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.

Pairando sobre a cabeça do Google estão as garantias que o gigante da tecnologia fez aos reguladores para manter um alto padrão de testes e relatórios de segurança em IA. Dois anos atrás, o Google disse ao governo dos EUA que publicaria relatórios de segurança para todos os modelos de IA “significativos” disponíveis ao público que estivessem “dentro do escopo”. A empresa seguindo essa promessa com compromissos semelhantes a outros países, prometendo “fornecer transparência pública” em torno dos produtos de IA.

Kevin Bankston, um conselheiro sênior em governança de IA no Centro para a Democracia e Tecnologia, chamou a tendência de relatórios esporádicos e vagos de uma “corrida para baixo” na segurança da IA.

“Combinado com relatos de que laboratórios concorrentes como a OpenAI diminuíram seu tempo de teste de segurança antes do lançamento de meses para dias, essa documentação ínfima para o principal modelo de IA do Google conta uma história preocupante de uma corrida para baixo na segurança e transparência da IA enquanto as empresas apressam seus modelos para o mercado,” ele disse à TechCrunch.

O Google afirmou em declarações que, embora não detalhado em seus relatórios técnicos, realiza testes de segurança e “atividades de equipe adversarial” para modelos antes do lançamento.


    cinco × cinco =

    Bolt42