Bolt42

O CEO da Anthropic, Dario Amodei, está preocupado com a DeepSeek, a empresa chinesa de IA que causou alvoroço no Vale do Silício com seu modelo R1. E suas preocupações podem ser mais sérias do que as típicas relacionadas ao envio de dados de usuários de volta para a China.

Em uma entrevista no podcast ChinaTalk de Jordan Schneider, Amodei afirmou que a DeepSeek gerou informações raras sobre armas biológicas em um teste de segurança realizado pela Anthropic.

A performance da DeepSeek foi “a pior de qualquer modelo que já testamos”, afirmou Amodei. “Ela não tinha absolutamente nenhum bloqueio contra a geração dessas informações.”

Amodei comentou que isso faz parte das avaliações que a Anthropic realiza rotineiramente em vários modelos de IA para avaliar seus potenciais riscos à segurança nacional. Sua equipe analisa se os modelos conseguem gerar informações relacionadas a armas biológicas que não estão facilmente disponíveis no Google ou em livros didáticos. A Anthropic se posiciona como o provedor de modelos de IA fundamentais que leva a segurança a sério.

Amodei disse que não acredita que os modelos da DeepSeek hoje sejam “literalmente perigosos” por fornecer informações raras e perigosas, mas que isso pode mudar em um futuro próximo. Embora tenha elogiado a equipe da DeepSeek como “engenheiros talentosos”, ele aconselhou a empresa a “levar em consideração seriamente essas questões de segurança em IA.”

Amodei também apoiou o fortalecimento dos controles de exportação de chips para a China, citando preocupações de que isso poderia dar à milícia chinesa uma vantagem.

Amodei não esclareceu na entrevista do ChinaTalk qual modelo da DeepSeek foi testado pela Anthropic, nem forneceu mais detalhes técnicos sobre esses testes. A Anthropic não respondeu imediatamente a um pedido de comentário do TechCrunch. A DeepSeek também não respondeu.

O crescimento da DeepSeek gerou preocupações sobre sua segurança em outros lugares também. Por exemplo, pesquisadores de segurança da Cisco disseram na semana passada que a DeepSeek R1 não conseguiu bloquear nenhum comando prejudicial em seus testes de segurança, alcançando uma taxa de sucesso de 100% na quebra de segurança.

A Cisco não mencionou armas biológicas, mas afirmou que conseguiu fazer a DeepSeek gerar informações prejudiciais sobre crimes cibernéticos e outras atividades ilegais. Vale mencionar, no entanto, que o Llama-3.1-405B da Meta e o GPT-4o da OpenAI também tiveram altas taxas de falha de 96% e 86%, respectivamente.

Ainda não está claro se preocupações de segurança como essas afetarão seriamente a rápida adoção da DeepSeek. Empresas como AWS e Microsoft já publicamente anunciaram a integração do R1 em suas plataformas de nuvem — ironicamente, dado que a Amazon é o maior investidor da Anthropic.

Por outro lado, há uma lista crescente de países, empresas e, especialmente, organizações governamentais como a Marinha dos EUA e o Pentágono que começaram a proibir a DeepSeek.

O tempo dirá se esses esforços ganharão força ou se a ascensão global da DeepSeek continuará. De qualquer forma, Amodei afirma considerar a DeepSeek um novo concorrente que está no mesmo nível das principais empresas de IA dos EUA.

“O novo fato aqui é que há um novo concorrente”, disse ele no ChinaTalk. “Entre as grandes empresas que podem treinar IA — Anthropic, OpenAI, Google, talvez Meta e xAI — agora a DeepSeek pode estar sendo adicionada a essa categoria.”


    vinte − dois =

    Bolt42