O CEO da Anthropic, Dario Amodei, está preocupado com a DeepSeek, a empresa chinesa de IA que causou alvoroço no Vale do Silício com seu modelo R1. E suas preocupações podem ser mais sérias do que as típicas relacionadas ao envio de dados de usuários de volta para a China.
Em uma entrevista no podcast ChinaTalk de Jordan Schneider, Amodei afirmou que a DeepSeek gerou informações raras sobre armas biológicas em um teste de segurança realizado pela Anthropic.
A performance da DeepSeek foi “a pior de qualquer modelo que já testamos”, afirmou Amodei. “Ela não tinha absolutamente nenhum bloqueio contra a geração dessas informações.”
Amodei comentou que isso faz parte das avaliações que a Anthropic realiza rotineiramente em vários modelos de IA para avaliar seus potenciais riscos à segurança nacional. Sua equipe analisa se os modelos conseguem gerar informações relacionadas a armas biológicas que não estão facilmente disponíveis no Google ou em livros didáticos. A Anthropic se posiciona como o provedor de modelos de IA fundamentais que leva a segurança a sério.
Amodei disse que não acredita que os modelos da DeepSeek hoje sejam “literalmente perigosos” por fornecer informações raras e perigosas, mas que isso pode mudar em um futuro próximo. Embora tenha elogiado a equipe da DeepSeek como “engenheiros talentosos”, ele aconselhou a empresa a “levar em consideração seriamente essas questões de segurança em IA.”
Amodei também apoiou o fortalecimento dos controles de exportação de chips para a China, citando preocupações de que isso poderia dar à milícia chinesa uma vantagem.
Amodei não esclareceu na entrevista do ChinaTalk qual modelo da DeepSeek foi testado pela Anthropic, nem forneceu mais detalhes técnicos sobre esses testes. A Anthropic não respondeu imediatamente a um pedido de comentário do TechCrunch. A DeepSeek também não respondeu.
O crescimento da DeepSeek gerou preocupações sobre sua segurança em outros lugares também. Por exemplo, pesquisadores de segurança da Cisco disseram na semana passada que a DeepSeek R1 não conseguiu bloquear nenhum comando prejudicial em seus testes de segurança, alcançando uma taxa de sucesso de 100% na quebra de segurança.
A Cisco não mencionou armas biológicas, mas afirmou que conseguiu fazer a DeepSeek gerar informações prejudiciais sobre crimes cibernéticos e outras atividades ilegais. Vale mencionar, no entanto, que o Llama-3.1-405B da Meta e o GPT-4o da OpenAI também tiveram altas taxas de falha de 96% e 86%, respectivamente.
Ainda não está claro se preocupações de segurança como essas afetarão seriamente a rápida adoção da DeepSeek. Empresas como AWS e Microsoft já publicamente anunciaram a integração do R1 em suas plataformas de nuvem — ironicamente, dado que a Amazon é o maior investidor da Anthropic.
Por outro lado, há uma lista crescente de países, empresas e, especialmente, organizações governamentais como a Marinha dos EUA e o Pentágono que começaram a proibir a DeepSeek.
O tempo dirá se esses esforços ganharão força ou se a ascensão global da DeepSeek continuará. De qualquer forma, Amodei afirma considerar a DeepSeek um novo concorrente que está no mesmo nível das principais empresas de IA dos EUA.
“O novo fato aqui é que há um novo concorrente”, disse ele no ChinaTalk. “Entre as grandes empresas que podem treinar IA — Anthropic, OpenAI, Google, talvez Meta e xAI — agora a DeepSeek pode estar sendo adicionada a essa categoria.”
Conteúdo relacionado
Anthropic transforma a abordagem da IA na educação: o Modo de Aprendizagem do Claude faz os alunos refletirem.
[the_ad id="145565"] Junte-se aos nossos boletins diários e semanais para as últimas novidades e conteúdo exclusivo sobre cobertura de IA de liderança no setor. Saiba mais……
Anthropic lança um plano de chatbot de IA para faculdades e universidades
[the_ad id="145565"] A Anthropic anunciou na quarta-feira que está lançando uma nova camada Claude para Educação, como resposta ao plano ChatGPT Edu da OpenAI. A nova camada é…
O artigo de 145 páginas da DeepMind sobre segurança em AGI pode não convencer os céticos.
[the_ad id="145565"] O Google DeepMind publicou na quarta-feira um documento exaustivo sobre sua abordagem de segurança para AGI, definida de forma ampla como uma IA capaz de…