A presidente do Signal, Meredith Whittaker, alertou na sexta-feira que a IA agentiva pode representar um risco à privacidade dos usuários.
Falando no palco da conferência SXSW em Austin, Texas, a defensora das comunicações seguras se referiu ao uso de agentes de IA como “colocar seu cérebro em um frasco” e alertou que esse novo paradigma de computação — onde a IA realiza tarefas em nome dos usuários — possui um “problema profundo” tanto com a privacidade quanto com a segurança.
Whittaker explicou como os agentes de IA estão sendo comercializados como uma forma de adicionar valor à sua vida, lidando com várias tarefas online para o usuário. Por exemplo, os agentes de IA poderiam assumir tarefas como procurar shows, reservar ingressos, agendar o evento no seu calendário e enviar mensagens aos seus amigos de que a reserva foi feita.
“Então podemos simplesmente colocar nosso cérebro em um frasco porque a coisa está fazendo isso e não precisamos tocá-la, certo?”, ponderou Whittaker.
Ela então explicou o tipo de acesso que o agente de IA precisaria para realizar essas tarefas, incluindo acesso ao nosso navegador, uma forma de controlá-lo, além de acesso às informações do nosso cartão de crédito para pagar ingressos, nosso calendário e aplicativo de mensagens para enviar o texto aos nossos amigos.
“Ele precisaria ser capaz de conduzir esse [processo] por todo o nosso sistema com algo que se assemelha a permissões de root, acessando cada um desses bancos de dados — provavelmente em texto claro, porque não há um modelo para fazer isso de forma criptografada”, alertou Whittaker.
“E se estamos falando de um modelo de IA suficientemente poderoso… que está alimentando isso, não há como isso acontecer no dispositivo”, continuou. “Isso quase certamente está sendo enviado para um servidor em nuvem onde está sendo processado e enviado de volta. Portanto, há um problema profundo de segurança e privacidade que assombra esse hype em torno dos agentes, e isso está ameaçando quebrar a barreira hematoencefálica entre a camada de aplicação e a camada de sistema operacional, conectando todos esses serviços separados [e] turvando seus dados,” concluiu Whittaker.
Se um aplicativo de mensagens como o Signal fosse integrar com agentes de IA, isso minaria a privacidade de suas mensagens, disse ela. O agente precisa acessar o aplicativo para enviar mensagens aos seus amigos e também puxar dados de volta para resumir essas mensagens.
Seus comentários seguiram as observações que ela fez anteriormente durante o painel sobre como a indústria de IA foi construída em um modelo de vigilância com coleta massiva de dados. Ela disse que o “paradigma de IA maior é melhor” — significando que quanto mais dados, melhor — tinha consequências potenciais que ela não achava boas.
Com a IA agentiva, Whittaker alertou que iríamos minar ainda mais a privacidade e a segurança em nome de um “gênio mágico que vai cuidar das exigências da vida,” concluiu.
Conteúdo relacionado
Juiz permite que processo dos autores sobre direitos autorais de IA contra a Meta prossiga
[the_ad id="145565"] Um juiz federal está permitindo que um processo judicial relacionado à copyright envolvendo a Meta prossiga, embora tenha rejeitado parte da ação. No caso…
Google Remove Menções a ‘Diversidade’ e ‘Equidade’ da Página da Equipe de IA Responsável
[the_ad id="145565"] O Google fez uma atualização silenciosa em sua página da equipe de IA Responsável e Tecnologia Centrada no Humano (RAI-HCT), a qual é responsável por…
Nova proposta do DOJ ainda pede que o Google desmete o Chrome, mas permite investimentos em IA.
[the_ad id="145565"] O Departamento de Justiça dos EUA ainda está pedindo para que o Google venda seu navegador Chrome, de acordo com um documento da corte divulgado na…