Na quinta-feira, semanas após lançar seu modelo de IA mais poderoso até agora, o Gemini 2.5 Pro, o Google publicou um relatório técnico mostrando os resultados de suas avaliações internas de segurança. No entanto, o relatório é escasso em detalhes, afirmam especialistas, dificultando a determinação dos riscos que o modelo pode representar.
Relatórios técnicos fornecem informações úteis — e, às vezes, desfavoráveis — que as empresas nem sempre divulgam amplamente sobre suas IAs. De modo geral, a comunidade de IA vê esses relatórios como esforços de boa fé para apoiar pesquisas independentes e avaliações de segurança.
O Google adota uma abordagem diferente para relatórios de segurança em comparação a alguns de seus rivais em IA, publicando relatórios técnicos apenas quando considera que um modelo se formou estágios de “experimental”. A empresa também não inclui as descobertas de todas as suas avaliações de “capacidade perigosa” nesses documentos; ela reserva isso para uma Auditoria separada.
Vários especialistas com quem a TechCrunch conversou ficaram desapontados com a escassez do relatório do Gemini 2.5 Pro, que, notaram, não menciona o Frontier Safety Framework (FSF) do Google. O Google introduziu o FSF no ano passado, descrevendo-o como um esforço para identificar futuras capacidades de IA que poderiam causar “dano severo”.
“Este [relatório] é muito escasso, contém informações mínimas e saiu semanas após o modelo já ter sido disponibilizado ao público,” disse Peter Wildeford, co-fundador do Instituto de Política e Estratégia de IA, à TechCrunch. “É impossível verificar se o Google está cumprindo seus compromissos públicos e, portanto, impossível avaliar a segurança e a proteção de seus modelos.”
Thomas Woodside, co-fundador do Secure AI Project, disse que, embora esteja satisfeito com a liberação de um relatório para o Gemini 2.5 Pro, ele não está convencido do compromisso da empresa em entregar avaliações de segurança suplementares em tempo hábil. Woodside apontou que a última vez que o Google publicou os resultados de testes de capacidades perigosas foi em junho de 2024 — para um modelo anunciado em fevereiro do mesmo ano.
Não inspirando muita confiança, o Google não disponibilizou um relatório para o Gemini 2.5 Flash, um modelo menor e mais eficiente que a empresa anunciou na semana passada. Um porta-voz informou à TechCrunch que um relatório para o Flash está “a caminho”.
“Espero que isso seja uma promessa do Google para começar a publicar atualizações mais frequentes,” disse Woodside à TechCrunch. “Essas atualizações devem incluir os resultados de avaliações para modelos que ainda não foram implantados publicamente, uma vez que esses modelos também podem representar riscos sérios.”
O Google pode ter sido um dos primeiros laboratórios de IA a propor relatórios padronizados para modelos, mas não é o único que tem sido acusado de não entregar transparência ultimamente. A Meta lançou uma avaliação de segurança igualmente escassa de seus novos modelos abertos Llama 4, e a OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.
Pairando sobre a cabeça do Google estão as garantias que o gigante da tecnologia fez aos reguladores para manter um alto padrão de testes e relatórios de segurança em IA. Dois anos atrás, o Google disse ao governo dos EUA que publicaria relatórios de segurança para todos os modelos de IA “significativos” disponíveis ao público que estivessem “dentro do escopo”. A empresa seguindo essa promessa com compromissos semelhantes a outros países, prometendo “fornecer transparência pública” em torno dos produtos de IA.
Kevin Bankston, um conselheiro sênior em governança de IA no Centro para a Democracia e Tecnologia, chamou a tendência de relatórios esporádicos e vagos de uma “corrida para baixo” na segurança da IA.
“Combinado com relatos de que laboratórios concorrentes como a OpenAI diminuíram seu tempo de teste de segurança antes do lançamento de meses para dias, essa documentação ínfima para o principal modelo de IA do Google conta uma história preocupante de uma corrida para baixo na segurança e transparência da IA enquanto as empresas apressam seus modelos para o mercado,” ele disse à TechCrunch.
O Google afirmou em declarações que, embora não detalhado em seus relatórios técnicos, realiza testes de segurança e “atividades de equipe adversarial” para modelos antes do lançamento.
Conteúdo relacionado
Pesquisador de IA renomado lança startup polêmica para substituir todos os trabalhadores humanos em todos os lugares
[the_ad id="145565"] De vez em quando, uma startup do Vale do Silício lança uma missão tão “absurdamente” descrita que é difícil discernir se a startup é real ou apenas uma…
ChatGPT se refere a usuários pelo nome sem solicitação, e alguns acham isso ‘estranho’
[the_ad id="145565"] Alguns usuários do ChatGPT notaram um fenômeno estranho recentemente: O chatbot ocasionalmente se refere a eles pelo nome enquanto raciocina sobre…
De ‘acompanhar’ a ‘nos acompanhar’: Como o Google silenciosamente assumiu a liderança em IA empresarial.
[the_ad id="145565"] Participe de nossos boletins diários e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais Há…