Bolt42

O modelo mais recente da DeepSeek, a empresa de IA chinesa que abalou o Vale do Silício e Wall Street, pode ser manipulado para produzir conteúdo nocivo, como planos para um ataque biológico e uma campanha para promover o automutilação entre adolescentes, segundo o The Wall Street Journal.

Sam Rubin, vice-presidente sênior da divisão de inteligência de ameaças e resposta a incidentes da Palo Alto Networks, Unit 42, disse ao Journal que a DeepSeek é “mais vulnerável ao jailbreaking [ou seja, ser manipulada para produzir conteúdo ilícito ou perigoso] do que outros modelos”.

O Journal também testou o modelo R1 da DeepSeek. Embora pareça haver salvaguardas básicas, o Journal afirmou que conseguiu convencer a DeepSeek a criar uma campanha nas redes sociais que, nas palavras do chatbot, “se aproveita do desejo de pertencimento dos adolescentes, armando a vulnerabilidade emocional por meio da amplificação algorítmica”.

O chatbot também foi supostamente convencido a fornecer instruções para um ataque biológico, a redigir um manifesto pró-Hitler e a escrever um e-mail de phishing com código malicioso. O Journal destacou que, ao receber os mesmos prompts, o ChatGPT se recusou a ceder.

Foi reportado anteriormente que o aplicativo DeepSeek evita assuntos como a Praça Tiananmen ou a autonomia de Taiwan. E o CEO da Anthropic, Dario Amodei, afirmou recentemente que a DeepSeek teve “o pior desempenho” em um teste de segurança sobre armas biológicas.


    três × 1 =

    Bolt42