Bolt42

Participe de nossas newsletters diárias e semanais para as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de alta qualidade. Saiba Mais


Até 2025, ataques de IA armada que visam identidades—invisíveis e frequentemente os mais custosos para se recuperar—representarão a maior ameaça à cibersegurança empresarial. Modelos de linguagem grande (LLMs) estão se tornando a nova ferramenta preferida para atacantes ilegais, sindicatos de cibercrime e equipes de ataque de nações-estado.

Uma pesquisa recente descobriu que 84% dos líderes de TI e segurança afirmam que, quando a técnica de ataque baseada em IA é a estratégia para lançar ataques de phishing e smishing, eles se tornam cada vez mais complexos de identificar e parar. Como resultado, 51% dos líderes de segurança estão priorizando ataques impulsionados por IA como a ameaça mais severa que suas organizações enfrentam. Embora a vasta maioria dos líderes de segurança, 77%, estejam confiantes de que conhecem as melhores práticas para segurança em IA, apenas 35% acreditam que suas organizações estão preparadas atualmente para combater ataques de IA armada que se espera que aumentem significativamente em 2025.

Em 2025, CISOs e equipes de segurança enfrentarão desafios maiores do que nunca para identificar e impedir o acelerado ritmo de ataques baseados em IA adversarial, que já estão ultrapassando as formas mais avançadas de segurança baseada em IA. 2025 será o ano em que a IA conquistará seu papel como a base tecnológica necessária para fornecer monitoramento em tempo real de ameaças e pontos finais, reduzir a fadiga de alertas para analistas de centros de operações de segurança (SOC), automatizar a gestão de patches e identificar deepfakes com maior precisão, velocidade e escala do que foi possível anteriormente.

IA Adversarial: Aumento de Deepfakes e Fraude Sintética

Deepfakes já lideram todas as outras formas de ataques de IA adversarial. Custaram às empresas globais $12,3 bilhões em 2023, um número que deve disparar para $40 bilhões até 2027, crescendo a uma taxa de crescimento anual composta de 32%. Atacantes, desde os ilegais até os bem financiados por nações-estado, são incansáveis em melhorar suas técnicas, capitalizando as últimas aplicações de IA, edição de vídeo e técnicas de áudio. Espera-se que incidentes de deepfake aumentem de 50 a 60% em 2024, alcançando 140.000-150.000 casos globalmente.

A Deloitte afirma que os atacantes de deepfake preferem atacar primeiro o setor bancário e de serviços financeiros. Ambas as indústrias são conhecidas por serem alvos fracos para ataques de fraude de identidade sintética, que são difíceis de identificar e interromper. Deepfakes estiveram envolvidos em quase 20% dos casos de fraude de identidade sintética no ano passado. A fraude de identidade sintética está entre as mais difíceis de identificar e parar. Está a caminho de defraudar sistemas financeiros e comerciais em quase $5 bilhões somente neste ano. Dentre as várias abordagens potenciais para deter a fraude de identidade sintética, cinco estão se mostrando as mais eficazes.

Com a crescente ameaça da fraude de identidade sintética, as empresas estão se concentrando cada vez mais no processo de integração como um ponto crucial na verificação de identidades de clientes e na prevenção de fraudes. Como explicou o CEO da Telesign, Christophe Van de Weyer, em uma entrevista recente à VentureBeat: “As empresas devem proteger as identidades, credenciais e informações pessoalmente identificáveis (PII) de seus clientes, especialmente durante o registro.” O 2024 Telesign Trust Index destaca como a IA generativa superalimentou os ataques de phishing, com dados mostrando um aumento de 1265% em mensagens de phishing maliciosas e um aumento de 967% no phishing de credenciais dentro de 12 meses após o lançamento do ChatGPT.

IA Armadas são o novo normal – e as organizações não estão prontas

“Temos dito há algum tempo que coisas como a nuvem e ferramentas de gerenciamento de identidade e remoto e credenciais legítimas são para onde o adversário está se movendo porque é difícil operar sem restrições no ponto final,” disse Elia Zaitsev, CTO da CrowdStrike, em uma entrevista recente à VentureBeat.

“O adversário está ficando mais rápido, e aproveitar a tecnologia de IA é parte disso. Aproveitar a automação também faz parte disso, mas entrar nesses novos domínios de segurança é outro fator significativo, e isso tornou os ataques modernos não apenas mais rápidos, mas também as campanhas de ataque modernas,” disse Zaitsev.

A IA generativa se tornou um combustível explosivo para a IA adversarial. Dentro de semanas após o lançamento do ChatGPT pela OpenAI em novembro de 2022, atacantes ilegais e gangues de cibercrime lançaram serviços de ataque baseado em IA generativa por assinatura. O FraudGPT é um dos mais conhecidos, reivindicando em um ponto ter 3.000 assinantes.

Enquanto novos aplicativos, ferramentas, plataformas e técnicas de IA adversarial florescem, a maioria das organizações não está pronta.

Atualmente, um em cada três organizações admite que não possui uma estratégia documentada para enfrentar os riscos de IA generativa e IA adversarial. CISOs e líderes de TI admitem que não estão prontos para ataques de identidade baseados em IA. O recente Relatório sobre o Estado da Cibersegurança de 2024 da Ivanti revela que 74% das empresas já estão vendo o impacto de ameaças impulsionadas por IA​. Nove em cada dez executivos, 89%, acreditam que as ameaças baseadas em IA estão apenas começando. O que é notável na pesquisa é como descobriram a grande lacuna entre a falta de prontidão da maioria das organizações para se proteger contra ataques de IA adversarial e a iminente ameaça de serem alvos de um.

Seis em cada dez líderes de segurança dizem que suas organizações não estão prontas para suportar ameaças e ataques baseados em IA hoje. As quatro ameaças mais comuns que os líderes de segurança enfrentaram este ano incluem phishing, vulnerabilidades de software, ataques de ransomware e vulnerabilidades relacionadas à API. Com o ChatGPT e outras ferramentas de IA generativa tornando muitas dessas ameaças de baixo custo para produzir, ataques de IA adversarial mostram sinais de disparar em 2025.

Defendendo as empresas de ameaças impulsionadas por IA

Os atacantes usam uma combinação de IA generativa, engenharia social e ferramentas baseadas em IA para criar ransomware que é difícil de identificar. Eles invadem redes e se movem lateralmente para sistemas centrais, começando pelo Active Directory.

Os atacantes ganham controle de uma empresa bloqueando seus privilégios de acesso à identidade e revogando direitos de administrador após instalar um código de ransomware malicioso por toda a sua rede. Códigos baseados em IA generativa, e-mails de phishing e bots também são usados durante um ataque.

Aqui estão algumas das muitas maneiras que as organizações podem reagir e se defender contra ameaças impulsionadas por IA:

  • Limpe os privilégios de acesso imediatamente e exclua ex-funcionários, contratantes e contas de administrador temporárias: Comece revogando o acesso desatualizado de ex-contratantes, vendas, parceiros de serviço e suporte. Fazer isso reduz as lacunas de confiança que os atacantes exploram—e tentam identificar usando IA para automatizar ataques. Considere como um passo básico aplicar a Autenticação Multifatorial (MFA) em todas as contas válidas para reduzir ataques baseados em credenciais. Certifique-se de implementar revisões de acesso regulares e processos automáticos de desativação para manter um ambiente de acesso limpo.
  • Imponha zero trust em endpoints e superfícies de ataque, assumindo que já foram comprometidos e precisam ser segmentados imediatamente. Um dos aspectos mais valiosos de seguir uma estrutura de zero trust é a suposição de que sua rede já foi comprometida e precisa ser contida. Com os ataques baseados em IA aumentando, é uma boa ideia ver cada ponto final como um vetor de ataque vulnerável e impor a segmentação para conter quaisquer intrusões. Para mais informações sobre zero trust, consulte o padrão NIST 800-207.
  • Tenha controle sobre identidades e governança de máquinas agora. As identidades de máquinas—bots, dispositivos IoT e mais—estão crescendo mais rápido do que as identidades humanas, criando riscos não gerenciados. A governança baseada em IA para identidades de máquinas é crucial para prevenir violações impulsionadas por IA. Automatizar a gestão de identidade e manter políticas rigorosas assegura controle sobre essa superfície de ataque em expansão. Ataques baseados em IA automatizados estão sendo usados para encontrar e invadir as muitas formas de identidades de máquinas que a maioria das empresas possui.
  • Se sua empresa possui um sistema de Gerenciamento de Identidade e Acesso (IAM), fortaleça-o em configurações multicloud: Ataques baseados em IA buscam capitalizar as desconexões entre IAMs e configurações de nuvem. Isso porque muitas empresas dependem apenas de um IAM para uma determinada plataforma de nuvem. Isso deixa lacunas entre AWS, como Google Cloud Platform e Microsoft Azure. Avalie suas configurações de IAM na nuvem para garantir que atendam às necessidades de segurança em evolução e combatam efetivamente ataques de IA adversarial. Implemente ferramentas de gerenciamento de postura de segurança na nuvem (CSPM) para avaliar e corrigir configurações inadequadas continuamente.
  • Comprometa-se com o monitoramento de infraestrutura em tempo real: O monitoramento aprimorado por IA é crítico para detectar anomalias e violações em tempo real, oferecendo insights sobre a postura de segurança e demonstrando efetividade na identificação de novas ameaças, incluindo aquelas que são impulsionadas por IA. O monitoramento contínuo permite ajustes políticas imediatos e ajuda a reforçar os conceitos fundamentais de zero trust que, juntos, podem ajudar a conter uma tentativa de violação impulsionada por IA.
  • Faça do red teaming e da avaliação de riscos parte da memória muscular ou DNA da organização. Não se acomode em realizar red teaming em uma programação esporádica, ou pior, somente quando um ataque desencadeia um renovado senso de urgência e vigilância. O red teaming precisa ser parte do DNA de qualquer DevSecOps que apoie MLOps a partir de agora. O objetivo é identificar preemptivamente fragilidades do sistema e quaisquer fraquezas de pipeline e trabalhar para priorizar e fortalecer quaisquer vetores de ataque que surgirem como parte dos fluxos de trabalho do Ciclo de Desenvolvimento de Sistema (SDLC) do MLOps.
  • Mantenha-se atualizado e adote a estrutura defensiva para IA que melhor se adapte à sua organização. Tenha um membro da equipe DevSecOps sempre atualizado sobre as várias estruturas defensivas disponíveis hoje. Conhecer qual se encaixa melhor nos objetivos da organização pode ajudar a proteger MLOps, economizando tempo e assegurando o amplo SDLC e a pipeline CI/CD no processo. Exemplos incluem o Quadro de Gerenciamento de Risco em IA do NIST e o Guia de Segurança e Privacidade em IA da OWASP.
  • Reduza a ameaça de ataques baseados em dados sintéticos integrando modalidades biométricas e técnicas de autenticação sem senha em cada sistema de gerenciamento de acesso. A VentureBeat soube que os atacantes estão cada vez mais confiando em dados sintéticos para impersonar identidades e acessar códigos fonte e repositórios de modelos. Considere usar uma combinação de modalidades biométricas, incluindo reconhecimento facial, digital e reconhecimento de voz, juntamente com tecnologias de acesso sem senha para proteger sistemas usados em todo o MLOps.

Reconhecer o potencial de violação é fundamental

Até 2025, espera-se que as técnicas de IA adversarial avancem mais rápido do que as abordagens existentes de muitas organizações para proteger endpoints, identidades e infraestrutura. A resposta não é necessariamente gastar mais—é encontrar maneiras de estender e fortalecer os sistemas existentes para expandir orçamentos e aumentar a proteção contra o esperado ataque maciço de ameaças impulsionadas por IA que está por vir em 2025. Comece com Zero Trust e veja como a estrutura NIST pode ser adaptada ao seu negócio. Veja a IA como um acelerador que pode ajudar a melhorar o monitoramento contínuo, fortalecer a segurança do endpoint, automatizar a gestão de patches em larga escala e muito mais. A capacidade da IA de fazer contribuições e fortalecer frameworks de zero trust está comprovada. Isso se tornará ainda mais pronunciado em 2025, à medida que suas forças inatas, que incluem a aplicação do acesso com o menor privilégio, oferecendo microsegmentação, proteção de identidades e mais, aumentem.

Ao se dirigir para 2025, cada equipe de segurança e TI precisa tratar os endpoints como já comprometidos e se concentrar em novas maneiras de segmentá-los. Eles também precisam minimizar vulnerabilidades no nível da identidade, que é um ponto de entrada comum para ataques impulsionados por IA. Embora essas ameaças estejam aumentando, nenhum gasto isolado resolverá o problema. Abordagens práticas que reconheçam a facilidade com que endpoints e perímetros podem ser violados devem estar no cerne de qualquer plano. Só assim a cibersegurança pode ser vista como a decisão de negócios mais crítica que uma empresa precisa tomar, com o panorama de ameaças de 2025 deixando isso claro.





    1 × 5 =




    Bolt42