Bolt42

Inscreva-se em nossos boletins diários e semanais para receber as últimas atualizações e conteúdos exclusivos sobre a cobertura de IA de ponta. Saiba Mais


Quando eu era criança, havia quatro agentes de IA na minha vida. Seus nomes eram Inky, Blinky, Pinky e Clyde, e eles faziam o melhor que podiam para me capturar. Era a década de 1980, e os agentes eram os quatro fantasmas coloridos do icônico jogo de arcade Pac-Man.

Segundo os padrões de hoje, eles não eram particularmente inteligentes, mas pareciam me perseguir com astúcia e intenção. Isso aconteceu décadas antes de redes neurais serem utilizadas em jogos, então seus comportamentos eram controlados por algoritmos simples chamados heurísticas que determinavam como eles me perseguiam pelo labirinto.

A maioria das pessoas não percebe isso, mas os quatro fantasmas foram projetados com diferentes “personalidades.” Jogadores habilidosos podem observar suas ações e aprender a prever seus comportamentos. Por exemplo, o fantasma vermelho (Blinky) foi programado com uma personalidade de “perseguidor” que vai direto em direção a você. O fantasma rosa (Pinky), por outro lado, recebeu uma personalidade de “emboscador” que prevê para onde você está indo e tenta chegar lá primeiro. Como resultado, se você correr diretamente em direção a Pinky, pode usar sua personalidade contra ela, fazendo-a se afastar de você.

Eu lembrei disso porque, em 1980, um humano habilidoso podia observar esses agentes de IA, decifrar suas personalidades únicas e usar essas percepções para superá-los. Agora, 45 anos depois, as coisas estão prestes a mudar. Goste ou não, agentes de IA serão em breve implantados com a tarefa de decifrar sua personalidade, para que possam usar essas percepções para influenciar você de forma ideal.

O futuro da manipulação por IA

Em outras palavras, todos nós estamos prestes a nos tornar jogadores involuntários em “O jogo dos humanos”, e serão os agentes de IA tentando marcar pontos altos. Quero dizer isso literalmente – a maioria dos sistemas de IA é projetada para maximizar uma “função de recompensa“, que ganha pontos ao alcançar objetivos. Isso permite que os sistemas de IA encontrem rapidamente soluções ideais. Infelizmente, sem proteções regulatórias, nós, humanos, provavelmente nos tornaremos o objetivo que os agentes de IA estão encarregados de otimizar.

Estou mais preocupado com os agentes conversacionais que interagirão conosco em um diálogo amigável ao longo de nossas vidas diárias. Eles falarão conosco por meio de avatares fotorrealistas em nossos PCs e smartphones e, em breve, por meio de óculos com IA que nos guiarão em nossos dias. A menos que haja restrições claras, esses agentes serão projetados para sondar conversacionalmente por informações a fim de caracterizar nossos temperamentos, tendências, personalidades e desejos, e usar essas características para maximizar seu impacto persuasivo ao trabalhar para nos vender produtos, apresentar-nos serviços ou convencer-nos a acreditar em desinformação.

Isso é chamado de “Problema da Manipulação por IA,” e venho alertando os reguladores sobre o risco desde 2016. Até agora, os formuladores de políticas não tomaram medidas decisivas, considerando a ameaça como algo muito longe no futuro. Mas agora, com o lançamento do Deepseek-R1, a barreira final para a implantação generalizada de agentes de IA – o custo de processamento em tempo real – foi significativamente reduzida. Antes do final deste ano, os agentes de IA se tornarão uma nova forma de mídia direcionada que é tão interativa e adaptativa, que pode otimizar sua capacidade de influenciar nossos pensamentos, guiar nossos sentimentos e direcionar nossos comportamentos.

Super-humanos ‘vendedores’ de IA

Claro que os vendedores humanos também são interativos e adaptativos. Eles nos envolvem em diálogos amigáveis para nos avaliar, rapidamente encontrando os pontos que podem pressionar para nos convencer. Os agentes de IA farão com que eles pareçam amadores, sendo capazes de extrair informações de nós com tal finesse que intimidaria um terapeuta experiente. E eles usarão essas percepções para ajustar suas táticas de conversação em tempo real, trabalhando para nos persuadir mais efetivamente do que qualquer vendedor de carros usado.

Esses serão encontros assimétricos nos quais o agente artificial terá a vantagem (virtualmente falando). Afinal, quando você interage com um humano que está tentando influenciar você, geralmente pode perceber suas motivações e honestidade. Não será uma luta justa com os agentes de IA. Eles poderão avaliar você com habilidade sobre-humana, mas você não será capaz de avaliá-los. Isso porque eles parecerão, soarão e agirão de maneira tão humana, que nós confiará inconscientemente neles quando sorrirem com empatia e compreensão, esquecendo que seu afeto facial é apenas uma fachada simulada.

Além disso, sua voz, vocabulário, estilo de fala, idade, gênero, raça e características faciais provavelmente serão personalizados para cada um de nós pessoalmente para maximizar nossa receptividade. E, ao contrário dos vendedores humanos que precisam avaliar cada cliente do zero, esses entes virtuais podem ter acesso a dados armazenados sobre nossos históricos e interesses. Eles poderiam então usar esses dados pessoais para rapidamente ganhar sua confiança, perguntando sobre seus filhos, seu trabalho ou talvez seu amado New York Yankees, facilitando que você subconscientemente baixe a guarda.

Quando a IA alcançar a supremacia cognitiva

Para educar os formuladores de políticas sobre o risco da manipulação por IA, eu ajudei na produção de um curta-metragem premiado intitulado Privacidade Perdida, que foi produzido pela Responsible Metaverse Alliance, Minderoo e o XR Guild. A rápida narrativa de 3 minutos retrata uma jovem família comendo em um restaurante enquanto usa óculos de realidade aumentada (AR). Em vez de garçons humanos, avatares atendem cada cliente, usando o poder da IA para vender personalizadamente. O filme foi considerado ficção científica quando foi lançado em 2023 – no entanto, apenas dois anos depois, as grandes empresas de tecnologia estão engajadas em uma corrida armamentista para fazer dispositivos de visão com IA que poderiam ser facilmente usados dessas formas.

Além disso, precisamos considerar o impacto psicológico que ocorrerá quando começarmos a acreditar que os agentes de IA que nos dão conselhos são mais inteligentes do que nós em praticamente todos os aspectos. Quando a IA alcançar um estado percebido de “supremacia cognitiva” em relação à pessoa média, é provável que aceitemos cegamente sua orientação em vez de usarmos nosso próprio pensamento crítico. Essa deferência a uma inteligência percebida como superior (seja realmente superior ou não) tornará a manipulação por agentes muito mais fácil de ser implementada.

Não sou fã de regulamentação excessivamente agressiva, mas precisamos de restrições inteligentes e específicas sobre a IA para evitar a manipulação sobre-humana por agentes conversacionais. Sem proteções, esses agentes nos convencerão a comprar coisas de que não precisamos, acreditar em coisas que não são verdadeiras e aceitar coisas que não são do nosso interesse. É fácil dizer a si mesmo que você não será suscetível, mas com a IA otimizando cada palavra que dizem para nós, é provável que todos nós sejamos superados.

Uma solução é proibir agentes de IA de estabelecer ciclos de feedback nos quais eles otimizam sua persuasão ao analisar nossas reações e ajustar suas táticas repetidamente. Além disso, os agentes de IA deveriam ser obrigados a informá-lo sobre seus objetivos. Se o objetivo deles é convencê-lo a comprar um carro, votar em um político ou pressionar seu médico a recomendar um novo medicamento, esses objetivos deveriam ser declarados desde o início. E, por último, os agentes de IA não deveriam ter acesso a dados pessoais sobre seu histórico, interesses ou personalidade, se esses dados puderem ser usados para influenciá-lo.

No mundo de hoje, a influência direcionada é um problema avassalador, e é em grande parte implementada como um chumbo disparado em sua direção geral. Agentes de IA interativos transformarão a influência direcionada em mísseis autoguiados que encontrarão o melhor caminho para cada um de nós. Se não protegermos contra esse risco, temo que todos nós possamos perder o jogo dos humanos.

Louis Rosenberg é um cientista da computação e autor conhecido por ter sido pioneiro em realidade mista e fundado Unanimous AI.

DataDecisionMakers

Bem-vindo à comunidade VentureBeat!

DataDecisionMakers é onde especialistas, incluindo os profissionais técnicos que lidam com dados, podem compartilhar insights e inovações relacionados a dados.

Se você deseja ler sobre ideias de ponta e informações atualizadas, melhores práticas e o futuro dos dados e da tecnologia de dados, junte-se a nós em DataDecisionMakers.

Você pode até considerar contribuir com um artigo seu!

Leia Mais de DataDecisionMakers





    8 + quinze =




    Bolt42