Sure! Here’s the rewritten content in Portuguese, maintaining the HTML tags:
<div>
<div id="boilerplate_2682874" class="post-boilerplate boilerplate-before"><!-- wp:paragraph -->
<p><em>Participe das nossas newsletters diárias e semanais para obter as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba mais</em></p>
<!-- /wp:paragraph -->
<!-- wp:separator {"opacity":"css","className":"is-style-wide"} -->
<hr class="wp-block-separator has-css-opacity is-style-wide"/>
<!-- /wp:separator -->
</div>
<p>Com <a target="_blank" href="https://hiddenlayer.com/threatreport2024/" target="_blank" rel="noreferrer noopener">77%</a> das empresas já sendo vítimas de ataques de IA adversarial e atores de eCrime alcançando um tempo de quebra recorde de apenas <a target="_blank" href="https://www.crowdstrike.com/en-us/global-threat-report/" target="_blank" rel="noreferrer noopener">2 minutos e 7 segundos</a>, a questão não é se seu Centro de Operações de Segurança (SOC) será alvo — mas quando.</p>
<p>À medida que as violações na nuvem aumentaram <a target="_blank" href="https://www.crowdstrike.com/en-us/global-threat-report/">75% no ano passado</a>, e <a target="_blank" href="https://higherlogicdownload.s3.amazonaws.com/ISACA/9c800c88-34d8-4fca-8bd2-5d46fd639822/UploadedImages/Audit_of_Machine_Learning_Resilience.pdf" target="_blank" rel="noreferrer noopener">duas em cada cinco empresas sofreram violações de segurança relacionadas à IA</a>, todo líder de SOC precisa confrontar uma verdade brutal: suas defesas devem evoluir tão rapidamente quanto a tática dos atacantes ou arriscar ser superadas por adversários implacáveis e engenhosos que se adaptam em segundos para conseguir uma violação.</p>
<p>Combinando IA generativa (gen IA), engenharia social, campanhas de intrusão interativas e um ataque total às vulnerabilidades e identidades da nuvem, os atacantes estão executando um manual que busca capitalizar cada fraqueza do SOC que conseguem encontrar. <a target="_blank" href="https://www.crowdstrike.com/en-us/global-threat-report/" target="_blank" rel="noreferrer noopener">O Relatório Global de Ameaças 2024 da CrowdStrike</a> revela que atacantes de estados-nação estão levando os ataques baseados em identidade e engenharia social a um novo nível de intensidade. Estados-nação há muito utilizam aprendizado de máquina para elaborar campanhas de phishing e engenharia social. Agora, o foco está no roubo de ferramentas e sistemas de autenticação, incluindo chaves de API e senhas de uso único (OTPs).</p>
<p>“O que estamos vendo é que os atores de ameaça realmente se concentraram em... assumir uma identidade legítima. Fazendo login como um usuário legítimo. E, em seguida, permanecendo discreto, mantendo-se sob o radar ao viver à custa do que já está disponível, utilizando ferramentas legítimas”, disse Adam Meyers, vice-presidente sênior de operações contra adversários da CrowdStrike, ao VentureBeat durante uma recente apresentação.</p>
<p>Gangues de cibercrime e equipes de guerra cibernética de estados-nação continuam aprimorando suas táticas para lançar ataques baseados em IA visando minar a fundação da confiança em gerenciamento de identidade e acesso (IAM). Ao explorar identidades falsas geradas por meio de dados de voz, imagem e vídeo deepfake, esses ataques visam violar sistemas de IAM e criar caos em uma organização-alvo.</p>
<p>A figura da <a target="_blank" href="https://www.gartner.com/document-reader/document/5823247?ref=solrResearch&refval=442710420" target="_blank" rel="noreferrer noopener">Gartner</a> abaixo mostra por que as equipes de SOC precisam estar preparadas agora para ataques de IA adversarial, que, na maioria das vezes, assumem a forma de ataques de identidade falsa.</p>
<figure class="wp-block-image size-large">
<img fetchpriority="high" decoding="async" width="1280" height="818" src="https://venturebeat.com/wp-content/uploads/2024/12/Figure_1_GenAI-Borne_Attack_on_the_IAM_Trust_Foundation.png?w=800" alt="" class="wp-image-2986398" />
</figure>
<p>Fonte: Gartner 2025 Planejamento de Gestão de Identidade e Acesso. Publicado em 14 de outubro de 2024. ID do documento: G00815708.</p>
<h2 class="wp-block-heading" id="h-scoping-the-adversarial-ai-threat-landscape-going-into-2025"><strong>Avaliando a paisagem de ameaças de IA adversarial para 2025</strong></h2>
<p>“À medida que a gen IA continua a evoluir, também deve crescer a compreensão de suas implicações para a cibersegurança,” disse Bob Grazioli, CIO e vice-presidente sênior da <a target="_blank" href="https://www.ivanti.com/" target="_blank" rel="noreferrer noopener">Ivanti</a>, recentemente ao VentureBeat.</p>
<p>“Sem dúvida, a gen IA equipa os profissionais de cibersegurança com ferramentas poderosas, mas também oferece aos atacantes capacidades avançadas. Para contrabalançar isso, novas estratégias são necessárias para evitar que a IA maliciosa se torne uma ameaça dominante. Este relatório ajuda a equipar as organizações com os insights necessários para se antecipar a ameaças avançadas e proteger seus ativos digitais de forma eficaz,” disse Grazioli.</p>
<p>Uma pesquisa recente da Gartner revelou que 73% das empresas possuem centenas ou milhares de modelos de IA implantados, enquanto 41% relataram incidentes de segurança relacionados à IA. De acordo com <a target="_blank" href="https://hiddenlayer.com/threatreport2024/" target="_blank" rel="noreferrer noopener">HiddenLayer</a>, sete em cada dez empresas experimentaram violações relacionadas à IA, com 60% ligadas a ameaças internas e 27% envolvendo ataques externos direcionados à infraestrutura de IA.</p>
<p>Nir Zuk, CTO da <a target="_blank" href="https://www.paloaltonetworks.com/" target="_blank" rel="noreferrer noopener">Palo Alto Networks</a>, destacou de forma contundente em uma entrevista ao VentureBeat no início deste ano: O aprendizado de máquina presume que os adversários já estão dentro, e isso exige resposta em tempo real a ataques furtivos.</p>
<p>Pesquisadores da <a target="_blank" href="https://www.cmu.edu/" target="_blank" rel="noreferrer noopener">Universidade Carnegie Mellon</a> publicaram recentemente “<a target="_blank" href="https://arxiv.org/abs/2406.12934" target="_blank" rel="noreferrer noopener">Estado Atual dos Riscos de LLM e Guardrails de IA</a>,” um artigo que explica as vulnerabilidades de modelos de linguagem grande (LLMs) em aplicações críticas. Ele destaca riscos como viés, contaminação de dados e não-reproduzibilidade. Com líderes de segurança e equipes de SOC cada vez mais colaborando em novas medidas de segurança para modelos, as diretrizes defendidas por esses pesquisadores precisam fazer parte do treinamento e desenvolvimento contínuo das equipes de SOC. Essas diretrizes incluem a implementação de modelos de proteção em camadas que integrem geração aumentada por recuperação (RAG) e ferramentas de percepção situacional para contrabalançar a exploração adversarial.</p>
<p>As equipes de SOC também carregam o ônus de suporte para novas aplicações de gen IA, incluindo o uso crescente de IA agente. Pesquisadores da <a target="_blank" href="https://www.ucdavis.edu/" target="_blank" rel="noreferrer noopener">Universidade da Califórnia, Davis</a> publicaram recentemente “<a target="_blank" href="https://arxiv.org/html/2406.08689v2" target="_blank" rel="noreferrer noopener">Segurança de Agentes de IA</a>,” um estudo que examina os desafios de segurança que as equipes de SOC enfrentam à medida que os agentes de IA executam tarefas no mundo real. Ameaças, incluindo violações de integridade de dados e poluição de modelos, onde entradas adversariais podem comprometer as decisões e ações do agente, são decompostas e analisadas. Para contrabalançar esses riscos, os pesquisadores propõem defesas como permitir que as equipes de SOC iniciem e gerenciem a contenção — limitando o escopo operacional do agente — e fluxos de trabalho criptografados que protejam interações sensíveis, criando um ambiente controlado para conter possíveis explorações.</p>
<h2 class="wp-block-heading" id="h-why-socs-are-targets-of-adversarial-ai"><strong>Por que os SOCs são alvos da IA adversarial</strong></h2>
<p>Enfrentando fadiga de alertas, alta rotatividade de pessoal chave, dados incompletos e inconsistentes sobre ameaças, e sistemas projetados para proteger perímetros e não identidades, as equipes de SOC estão em desvantagem contra os crescentes arsenais de IA dos atacantes.</p>
<p>Líderes de SOC nos setores de serviços financeiros, seguros e manufatura informam ao VentureBeat, sob condição de anonimato, que suas empresas estão sob ataque, com um grande número de alertas de alto risco chegando a cada dia.</p>
<p>As técnicas abaixo focam em maneiras que modelos de IA podem ser comprometidos de tal forma que, uma vez violados, fornecem dados sensíveis e podem ser usados para pivotar para outros sistemas e ativos dentro da empresa. As táticas dos atacantes concentram-se em estabelecer uma base que leve a uma penetração mais profunda na rede.</p>
<ul>
<li><strong>Contaminação de Dados:</strong> Atacantes introduzem dados maliciosos no conjunto de treinamento de um modelo para degradar o desempenho ou controlar previsões. De acordo com um relatório da Gartner de 2023, quase 30% das organizações com IA habilitada, particularmente nos setores financeiro e de saúde, experimentaram tais ataques. Ataques de backdoor inserem gatilhos específicos nos dados de treinamento, fazendo com que os modelos se comportem incorretamente quando esses gatilhos aparecem em dados do mundo real. Um estudo de 2023 da <a target="_blank" href="https://www.csail.mit.edu/news/global-ai-adoption-outpacing-risk-understanding-warns-mit-csail" target="_blank" rel="noreferrer noopener">MIT</a> destaca o crescente risco de tais ataques à medida que a adoção de IA cresce, tornando estratégias de defesa como o treinamento adversarial cada vez mais importantes.</li>
</ul>
<ul>
<li><strong> ataques de Evasão:</strong> Esses ataques alteram dados de entrada para provocar previsões erradas. Pequenas distorções de imagem podem confundir modelos, levando-os a classificar objetos incorretamente. Um método de evasão popular, o Método de Sinal Gradiente Rápido (FGSM), usa ruído adversarial para enganar modelos. Ataques de evasão na indústria de veículos autônomos levantaram preocupações de segurança, onde sinais de pare alterados foram mal interpretados como sinais de yield. Um estudo de 2019 descobriu que um pequeno adesivo em um sinal de pare enganou um carro autônomo a pensar que era um sinal de limite de velocidade. <a target="_blank" href="https://keenlab.tencent.com/en/whitepapers/Experimental_Security_Research_of_Tesla_Autopilot.pdf?utm_campaign=the_algorithm.unpaid.engagement&utm_source=hs_email&utm_medium=email&utm_content=71373464&_hsenc=p2ANqtz--JBcpulYc-GW10QtUBBH_VTXHIiaAgdM-w3SdhQ1uop_m2MwFNQK8b-uDQ6hEgwH-08IpeSACOY432EYgtoku-uYAOZA&_hsmi=71373464">O Laboratório de Segurança da Tencent</a> usou adesivos de estrada para enganar o sistema de piloto automático de um Tesla Model S. Esses adesivos desviaram o carro para a faixa errada, mostrando como pequenas mudanças cuidadosamente elaboradas podem ser perigosas. Ataques adversariais a sistemas críticos, como veículos autônomos, são ameaças do mundo real.</li>
</ul>
<ul>
<li><strong>Explorando vulnerabilidades de API:</strong> Ataques de roubo de modelo e outros ataques adversariais são altamente eficazes contra APIs públicas e são essenciais para obter saídas de modelos de IA. Muitas empresas são suscetíveis à exploração porque não possuem uma segurança de API robusta, como foi mencionado no BlackHat 2022. Fornecedores, incluindo Checkmarx e Traceable AI, estão automatizando a descoberta de APIs e eliminando bots maliciosos para mitigar esses riscos. A segurança de APIs deve ser fortalecida para preservar a integridade dos modelos de IA e proteger dados sensíveis.</li>
</ul>
<ul>
<li><strong>Integridade do Modelo e Treinamento Adversarial:</strong> Sem treinamento adversarial, modelos de aprendizado de máquina podem ser manipulados. No entanto, os pesquisadores afirmam que embora o treinamento adversarial melhore a robustez, ele requer tempos de treinamento mais longos e pode trocar precisão por resiliência. Embora falho, é uma defesa essencial contra ataques adversariais. Os pesquisadores também descobriram que uma má gestão de identidade de máquina em ambientes de nuvem híbridos aumenta o risco de ataques adversariais a modelos de aprendizado de máquina.</li>
</ul>
<ul>
<li><strong>Inversão de Modelo:</strong> Esse tipo de ataque permite que adversários infiram dados sensíveis a partir das saídas de um modelo, representando riscos significativos quando treinados com dados confidenciais, como registros de saúde ou financeiros. Hackers consultam o modelo e usam as respostas para reverter os dados de treinamento. Em 2023, a <a target="_blank" href="https://www.gartner.com/document/code/773522" target="_blank" rel="noreferrer noopener">Gartner alertou</a>, “O uso indevido de inversão de modelo pode levar a violações significativas de privacidade, especialmente nos setores de saúde e financeiro, onde adversários podem extrair informações de pacientes ou clientes de sistemas de IA.”</li>
</ul>
<ul>
<li><strong>Roubo de Modelo:</strong> Consultas repetidas de APIs podem ser usadas para replicar a funcionalidade do modelo. Essas consultas ajudam o atacante a criar um modelo substituto que se comporta como o original. A Segurança de IA <a target="_blank" href="https://www.bleepingcomputer.com/news/security/researchers-find-you-can-trick-self-driving-cars-by-defacing-street-signs/" target="_blank" rel="noreferrer noopener">afirma</a>, “Modelos de IA são frequentemente visados por meio de consultas API para reverter seu funcionamento, apresentando riscos significativos para sistemas proprietários, especialmente em setores como finanças, saúde e veículos autônomos.” Esses ataques estão aumentando à medida que a IA é utilizada cada vez mais, levantando preocupações sobre propriedade intelectual e segredos comerciais em modelos de IA.</li>
</ul>
<h2 class="wp-block-heading" id="h-reinforcing-soc-defenses-through-ai-model-hardening-and-supply-chain-security"><strong>Reforçando as defesas do SOC através da solidificação de modelos de IA e segurança da cadeia de suprimentos</strong></h2>
<p>As equipes de SOC precisam pensar holísticamente sobre como uma violação aparentemente isolada dos modelos de IA/ML pode rapidamente se transformar em um ciberataque em toda a empresa. Os líderes de SOC precisam tomar a iniciativa e identificar quais estruturas de segurança e gerenciamento de riscos são mais complementares ao modelo de negócios de sua empresa. Ótimos pontos de partida são o <a target="_blank" href="https://www.nist.gov/itl/ai-risk-management-framework" target="_blank" rel="noreferrer noopener">Framework de Gerenciamento de Risco de IA do NIST</a> e o <a target="_blank" href="https://airc.nist.gov/AI_RMF_Knowledge_Base/Playbook" target="_blank" rel="noreferrer noopener">Playbook do Framework de Gerenciamento de Risco de IA do NIST</a>.</p>
<p>A VentureBeat está observando que as seguintes etapas estão trazendo resultados ao reforçar defesas e ao mesmo tempo aumentar a confiabilidade do modelo — dois passos críticos para proteger a infraestrutura de uma empresa contra ataques de IA adversarial:</p>
<p><strong>Comprometa-se a continuamente solidificar as arquiteturas dos modelos.</strong> Implemente camadas de filtragem para bloquear prompts maliciosos e vincule modelos a fontes de dados verificadas. Aborde potenciais pontos fracos na fase de pré-treinamento para que seus modelos resistam até às táticas adversariais mais avançadas.</p>
<p><strong>Nunca pare de fortalecer a integridade e a proveniência dos dados:</strong> Nunca assuma que todos os dados são confiáveis. Valide suas origens, qualidade e integridade por meio de verificações rigorosas e testes de entrada adversarial. Ao garantir que apenas dados limpos e confiáveis entrem no pipeline, os SOCs podem fazer sua parte para manter a precisão e a credibilidade das saídas.</p>
<p><strong>Integre validação adversarial e red-teaming:</strong> Não espere que os atacantes encontrem seus pontos cegos. Teste continuamente os modelos contra ameaças conhecidas e emergentes. Use equipes vermelhas para descobrir vulnerabilidades ocultas, desafiar suposições e impulsionar remediações imediatas — garantindo que as defesas evoluam em sintonia com as estratégias dos atacantes.</p>
<p><strong>Aumente e mantenha a transparência na cadeia de suprimentos:</strong> Identifique e neutralize ameaças antes que se enraizem em bases de código ou pipelines. Audite regularmente repositórios, dependências e fluxos de trabalho CI/CD. Trate cada componente como um potencial risco e use red-teaming para expor lacunas ocultas — promovendo uma cadeia de suprimentos segura e transparente.</p>
<p><strong>Empregue técnicas de preservação de privacidade e colaboração segura:</strong> Aproveite técnicas como aprendizado federado e criptografia homomórfica para permitir que as partes interessadas contribuam sem revelar informações confidenciais. Essa abordagem amplia a expertise em IA sem aumentar a exposição.</p>
<p><strong>Implemente gerenciamento de sessões, sandboxing e zero trust começando pela microsegmentação:</strong> Restringa o acesso e o movimento em sua rede segmentando sessões, isolando operações de risco em ambientes de sandbox e aplicando rigorosamente os princípios de zero trust. Sob zero trust, nenhum usuário, dispositivo ou processo é inerentemente confiável sem verificação. Essas medidas limitam o movimento lateral, contendo ameaças em seu ponto de origem. Elas protegem a integridade, disponibilidade e confidencialidade do sistema. Em geral, elas se mostraram eficazes em impedir ataques avançados de IA adversarial.</p>
<h2 class="wp-block-heading" id="h-conclusion"><strong>Conclusão</strong></h2>
<p>“A aliança entre CISO e CIO será crítica em 2025,” disse Grazioli ao VentureBeat. “Executivos precisam consolidar recursos — orçamentos, pessoal, dados e tecnologia — para melhorar a postura de segurança de uma organização. A falta de acessibilidade e visibilidade de dados compromete os investimentos em IA. Para resolver isso, silos de dados entre departamentos, como o CIO e o CISO, devem ser eliminados.”</p>
<p>“No próximo ano, precisaremos ver a IA como um funcionário, e não apenas como uma ferramenta,” notou Grazioli. “Por exemplo, engenheiros de prompt agora devem antecipar os tipos de perguntas que normalmente seriam feitas à IA, destacando o quão enraizada a IA se tornou nas atividades empresariais do dia a dia. Para garantir a precisão, a IA precisará ser treinada e avaliada como qualquer outro funcionário.”</p>
<div id="boilerplate_2660155" class="post-boilerplate boilerplate-after"><!-- wp:shortcode -->
<div class="Boilerplate__newsletter-container">
<div class="Boilerplate__newsletter-main">
<p><strong>VB Daily</strong></p>
<p>Mantenha-se informado! Receba as últimas notícias na sua caixa de entrada diariamente</p>
<p class="Form__newsletter-legal">Ao se inscrever, você concorda com os Termos de Serviço da VentureBeat.</p>
<p class="Form__success" id="boilerplateNewsletterConfirmation">
Obrigado por se inscrever. Confira mais newsletters da VB aqui.
</p>
<p class="Form__error">Ocorreu um erro.</p>
</div>
</div>
<!-- /wp:shortcode -->
</div>
</div>
Feel free to ask if you need further adjustments or additional information!
Conteúdo relacionado
SuperOps conquista R$ 125 milhões para usar IA e ajudar melhor provedores de serviços gerenciados
[the_ad id="145565"] SuperOps, uma startup indiana que oferece ferramentas para ajudar provedores de serviços de TI e administradores de sistemas internos em empresas, levantou…
A plataforma de música gratuita da Riffusion pode ser o Spotify do futuro
[the_ad id="145565"] Participe de nossas newsletters diárias e semanais para obter as últimas atualizações e conteúdo exclusivo sobre a cobertura de IA de ponta. Saiba Mais…
A startup de análise de dados Athenic AI quer ser o sistema nervoso central da empresa.
[the_ad id="145565"] Jared Zhao se interessou por análise de dados durante sua passagem pela UC Berkeley, atraído pela capacidade de transformar dados brutos em histórias. Zhao…