Apresentado pela Abnormal Security
Enquanto líderes empresariais e especialistas discutem sobre em que ponto a IA se encontra no ciclo de hype, os criminosos cibernéticos têm estado ocupados lançando ataques devastadores impulsionados por IA. Ataques de engenharia social gerados por IA em particular — incluindo phishing e comprometimento de e-mail empresarial — aumentaram drasticamente, com ferramentas de código aberto como ChatGPT (e seus contrapontos maliciosos GhostGPT, FraudGPT e WormGPT) oferecendo aos fraudadores sem conhecimento técnico um novo playground para criar ataques. Eles estão elaborando ataques por e-mail sofisticados e incrivelmente convincentes em grande escala, mirando no vetor de segurança mais vulnerável de qualquer empresa: os humanos em todos os níveis da organização.
“Os humanos são os endpoints mais vulneráveis e valiosos na organização”, diz Evan Reiser, CEO da Abnormal Security. “A segurança convencional foca na proteção da infraestrutura, mas enquanto houver humanos interagindo em um negócio — especialmente quando se trata de informações sensíveis — esses humanos continuarão sendo pontos de vulnerabilidade que os atacantes podem tentar explorar. E agora isso é muito mais fácil de fazer com ferramentas de IA.”
Para vencer contra o futuro dos ataques gerados por IA, o mundo precisa de algumas coisas, afirma Reiser: primeiro, uma compreensão profunda dos tipos de ataques de engenharia social que estão ocorrendo tanto agora quanto no horizonte — de e-mails de phishing personalizados e perfeitamente escritos, a deep fakes sofisticados que podem imitar a interação humana quase perfeitamente. Em segundo lugar, uma nova abordagem comportamental para parar essas ameaças, pois a geração atual de ferramentas de detecção simplesmente não foi projetada para identificar ataques por e-mail altamente convincentes e aparentemente realistas. E terceiro, requer soluções que operem em velocidade de máquina para detectar e defender, o que é cada vez mais importante em uma era onde a escassez de talentos em segurança cresce a cada dia.
IA Maliciosa e o crescimento da engenharia social
Os principais crimes cibernéticos hoje miram o canal de e-mail — o phishing é a principal causa de violações e a engenharia social é a principal causa de perdas financeiras, diz Reiser.
“Se você quer ser um engenheiro social ou um phisher, a IA é a melhor ferramenta que já aconteceu para você”, explica. “O ChatGPT pode escrever a mensagem perfeita porque entende como os negócios funcionam, pode fazer suposições muito precisas sobre, por exemplo, a linguagem usada pelo departamento de contas a pagar para desviar pagamentos, e pode facilmente personalizar essa comunicação para cada alvo.”
Além disso, os tipos de ataques que antes levavam horas para serem elaborados agora levam segundos. A riqueza e sofisticação desses ataques de engenharia social nunca foram tão grandes, agora que são gerados por modelos de linguagem de grande escala (LLMs) treinados no superset de informações humanas disponíveis na internet. Essas ferramentas fornecem uma quantidade imensa de contexto crítico sobre como as pessoas trabalham, como alguém em um papel específico em uma indústria particular responderia em uma ampla gama de situações, e muito mais.
“Existem limites embutidos nessas ferramentas de IA — por exemplo, ela não dirá como roubar dinheiro de um banco”, diz Reiser. “Mas se você disser, ‘Eu sou um funcionário preso no exterior e urgentemente preciso mudar minhas informações de pagamento,’ o ChatGPT o ajudará a escrever uma mensagem convincente que pode então ser utilizada maliciosamente.”
No passado, os criminosos investiam tempo significativo em pesquisar e perfilar manualmente os mais valiosos e vulneráveis alvos; agora, a IA oferece essa capacidade em escala. Com a proliferação de redes sociais acontecendo em paralelo, tudo o que é preciso hoje é simplesmente inserir um perfil do LinkedIn em um modelo de IA, e o que você obtém é um instantâneo instantâneo do papel, interesses, contatos e mais — tudo isso ajuda os criminosos a planejar e executar ataques de forma mais eficaz.
Mantendo a vulnerabilidade humana no centro da estratégia de segurança
As ferramentas de IA convencionais que a maioria de nós conhecemos hoje são LLMs, que geram texto, portanto, não é surpreendente que e-mails fraudulentos e mensagens de texto estejam rapidamente em ascensão. Mas outras formas de geração de mídia maliciosa estão no horizonte, incluindo deep fakes. Estamos prestes a entrar em um mundo onde avatares de deep fake alimentados por IA poderiam participar de reuniões do Zoom, fingindo ser um executivo confiável.
Além disso, a geração de imagens está melhorando a cada dia e estamos próximos de um ponto em que parte desse conteúdo, seja texto, imagens ou vídeo, não pode ser distinguido por humanos, diz Reiser. O vídeo está quase lá, tornando-se cada vez mais em tempo real e mais interativo. Embora tudo isso seja ótimo para os ‘caras do bem’, devemos lembrar que todos os avanços na tecnologia vêm com algum risco de exploração por partes maliciosas.
Eventualmente, qualquer tipo de meio de informação que seja utilizado por humanos se tornará um veículo potencial para os atacantes explorarem. Os manuais de ataques de hoje estão mudando, à medida que os criminosos cibernéticos se concentram menos em quebrar firewalls e mais em usar táticas de engano para enganar as próprias pessoas. O futuro do crime cibernético verá os atacantes gastando significativamente menos tempo focados na infraestrutura e ainda mais tempo mirando no comportamento humano através da engenharia social, auxiliados por ferramentas como a IA.
Isso, claro, tem grandes implicações para a segurança, já que abordagens tradicionais focadas em perímetro não funcionarão mais. Claro, você pode bloquear um endereço IP, mas não pode bloquear o uso de e-mail, chamadas telefônicas ou reuniões do Zoom e esperar operar um negócio eficaz.
“Os humanos são inerentemente acessíveis, mas também são inerentemente enganáveis”, diz Reiser. “Há uma razão pela qual ainda precisamos que os humanos realizem grande parte do trabalho de conhecimento hoje, porque, ao contrário dos robôs, os humanos podem fazer julgamentos e decisões nuançadas. Infelizmente, esse julgamento também pode ser influenciado e aproveitado por técnicas de engenharia social. E enquanto você pode corrigir seu firewall e seus servidores, você não consegue corrigir seus humanos.”
A explosão da IA está impulsionando uma nova onda de ofensas cibernéticas, mas também oferece uma oportunidade única para os defensores. Na batalha contra a IA maliciosa, as organizações precisam aproveitar a boa IA para revidar e proteger melhor sua vulnerabilidade humana.
Detectando anomalias comportamentais em escala
A tecnologia de deep fake ainda está se desenvolvendo, e hoje muitos de nós podemos distinguir um humano real de um deep fake por meio de indícios físicos. Você pode ser capaz de distinguir um deep fake de Zoom do seu colega, por exemplo, porque conhece seus padrões de fala, tom e maneiras gerais. Mas à medida que os deep fakes se tornam mais sofisticados, detectar esses sinais se tornará cada vez mais difícil. Já estamos nos aproximando desse ponto.
O que isso significa para a defesa é que teremos que procurar outras anomalias mais sutis em seu comportamento, como se nosso “colega” está aparecendo no Zoom em um horário em que normalmente estaria online, ou se é um participante regular desse tipo de reuniões.
“Estamos adotando a mesma abordagem para ataques de e-mail hoje”, acrescenta Reiser. “Se um e-mail chega com um indicador conhecido de comprometimento — como um endereço IP ruim, ou um anexo ou URL malicioso — ele pode ser automaticamente detectado e filtrado pelas ferramentas de tecnologia legadas. Mas a IA maliciosa inverte o jogo, permitindo que os adversários criem e-mails direcionados que omitem esses indicadores completamente e passem despercebidos.”
Isso exige uma nova espécie de solução que possa ler sinais comportamentais em vez de sinais de ameaça, combinados com uma linha de base comportamental construída para cada contato conhecido dentro e fora da organização. É aqui que a boa IA tem um papel poderoso a desempenhar, servindo como o motor para detectar e analisar com precisão anomalias comportamentais — interrompendo ataques antes que eles tenham a chance de alcançar seu alvo pretendido.
Essa abordagem, protegendo as pessoas ao usar IA para a detecção de anomalias comportamentais, tem se mostrado muito eficaz na luta contra ataques de e-mail sofisticados, tanto gerados por humanos quanto pela IA. E o e-mail é apenas o começo — há um potencial inexplorado para escalar a segurança de IA comportamental em um conjunto muito mais amplo de casos de uso de segurança, em uma escala que analistas de segurança humanos não podem igualar sozinhos.
Porque, embora os humanos sejam bons em reconhecimento de padrões, eles estão trabalhando com uma quantidade relativamente pequena de dados. Em uma empresa com 100.000 funcionários, nenhum profissional de segurança poderia conhecer todas essas pessoas, o que elas fazem, como trabalham ou com quem interagem — mas a IA pode. Ela pode aplicar o mesmo nível de intuição e reconhecimento de padrões que os humanos usam, em escala de big data, para tomar decisões em velocidade de máquina.
“É uma abordagem extremamente eficaz, e vimos sucesso na segurança de e-mail, bem como em outras áreas adjacentes,” diz Reiser. “É por isso que, embora pareça que há um clima de pessimismo em torno do lado obscuro da IA, eu me sinto positivo sobre seu potencial a longo prazo para o bem e como isso poderia transformar a maneira como nós, como civilização, lutamos contra o crime cibernético.”
Preenchendo a lacuna do mercado de trabalho com segurança nativa de IA
Essas novas ferramentas de IA comportamental não apenas reduzem o risco para suas pessoas, mas também assumem grande parte do trabalho tedioso anteriormente delegado aos humanos, como a análise de arquivos de logs e o processamento de dados, liberando, no final das contas, uma quantidade enorme de tempo para as equipes de operações de segurança. Isso é importante para a indústria de cibersegurança como um todo atualmente, diz Reiser. Em um mundo onde milhões de empregos em segurança estão vagos — enquanto os ataques cibernéticos se tornam mais avançados — precisamos da tecnologia para preencher a lacuna e ajudar a nos propelir em direção a um mundo que seja seguro e protegido para todos.
“Para chegar lá, precisamos que cada empresa seja segura, não apenas uma ou duas que podem desembolsar o maior dinheiro em soluções de segurança,” diz Reiser. “A IA é crítica não apenas para interromper novos ataques, mas também para nos ajudar a transitar para um paradigma mais sustentável de como fazemos segurança em um nível civilizacional.”
Artigos patrocinados são conteúdos produzidos por uma empresa que está pagando pelo post ou que tem um relacionamento comercial com a VentureBeat, e eles sempre estão claramente marcados. Para mais informações, entre em contato com
Conteúdo relacionado
Ex-engenheiro da Tesla à frente de agência governamental supostamente delineia ‘estratégia de IA em primeiro lugar’
[the_ad id="145565"] Thomas Shedd, o ex-engenheiro da Tesla que agora ocupa o cargo de diretor dos Serviços de Transformação Tecnológica, aparentemente delineou uma “estratégia…
Adobe Acrobat AI agora lê e explica seus contratos em minutos — saiba como funciona
[the_ad id="145565"] Participe das nossas newsletters diárias e semanais para receber as últimas atualizações e conteúdos exclusivos sobre a cobertura de IA líder na indústria.…
A UE publica orientações sobre usos de IA que são proibidos sob sua Lei de IA
[the_ad id="145565"] O primeiro prazo de conformidade foi ativado há poucos dias para a Lei de IA da União Europeia, um framework baseado em riscos para regular o uso da…