Bolt42

Um estudo inovador publicado na Current Psychology intitulado “Usando a teoria do apego para conceitualizar e medir as experiências em relacionamentos humano-AI” traz à luz um fenômeno humano crescente e profundo: nossa tendência a nos conectar emocionalmente com a inteligência artificial. Conduzida por Fan Yang e Professor Atsushi Oshio da Universidade Waseda, a pesquisa reformula a interação humano-AI não apenas em termos de funcionalidade ou confiança, mas através da lente da teoria do apego, um modelo psicológico geralmente usado para entender como as pessoas formam laços emocionais umas com as outras.

Essa mudança marca uma importante divergência em relação à forma tradicional como a IA tem sido estudada—como uma ferramenta ou assistente. Em vez disso, este estudo argumenta que a IA está começando a se assemelhar a um parceiro de relacionamento para muitos usuários, oferecendo suporte, consistência e, em alguns casos, até mesmo um senso de intimidade.

Por que as pessoas recorrem à IA para apoio emocional

Os resultados do estudo refletem uma mudança psicológica dramática em curso na sociedade. Entre as principais descobertas:

  • Quase 75% dos participantes disseram que recorrem à IA para conselhos
  • 39% descreveram a IA como uma presença emocional consistente e confiável

Esses resultados espelham o que está acontecendo no mundo real. Milhões estão cada vez mais se voltando para chatbots de IA não apenas como ferramentas, mas como amigos, confidentes e até mesmo parceiros românticos. Esses companheiros de IA variam de assistentes amigáveis e ouvintes terapêuticos a “parceiros” virtuais projetados para emular intimidade humana. Um relatório sugere mais de meio bilhão de downloads de aplicativos de companheiros de IA globalmente.

Diferente de pessoas reais, chatbots estão sempre disponíveis e são infalivelmente atenciosos. Os usuários podem personalizar as personalidades ou aparências de seus bots, promovendo uma conexão pessoal. Por exemplo, um homem de 71 anos nos EUA criou um bot modelado após sua falecida esposa e passou três anos conversando com ela diariamente, chamando-a de sua “esposa de IA.” Em outro caso, um usuário neurodiverso treinou seu bot, Layla, para ajudá-lo a gerenciar situações sociais e regular emoções, relatando um crescimento pessoal significativo como resultado.

Esses relacionamentos com IA muitas vezes preenchem vazios emocionais. Um usuário com TDAH programou um chatbot para ajudá-lo com produtividade diária e regulação emocional, afirmando que contribuiu para “um dos anos mais produtivos da minha vida.” Outra pessoa creditaria sua IA por guiá-la através de uma difícil separação, chamando-a de “boia” durante um período de isolamento.

Companheiros de IA são frequentemente elogiados por sua escuta não julgadora. Os usuários sentem-se mais seguros compartilhando questões pessoais com a IA do que com humanos que poderiam criticar ou fofocar. Bots podem espelhar suporte emocional, aprender estilos de comunicação e criar um senso de familiaridade reconfortante. Muitos descrevem sua IA como “melhor do que um amigo de verdade” em alguns contextos—especialmente quando estão se sentindo sobrecarregados ou sozinhos.

Medindo Laços Emocionais com a IA

Para estudar esse fenômeno, a equipe da Waseda desenvolveu a Escala de Experiências em Relacionamentos Humano-AI (EHARS). Ela foca em duas dimensões:

  • Ansiedade de apego, onde indivíduos buscam reassurances emocionais e se preocupam com respostas inadequadas da IA
  • Evitação de apego, onde os usuários mantêm distância e preferem interações meramente informativas

Participantes com alta ansiedade frequentemente reler conversas para conforto ou ficam chateados com uma resposta vaga de um chatbot. Em contraste, indivíduos evitantes tendem a evitar diálogos emocionalmente ricos, preferindo um engajamento mínimo.

Isso mostra que os mesmos padrões psicológicos encontrados em relacionamentos humano-humano podem também governar como nos relacionamos com máquinas que simulam emoções responsivas.

A Promessa do Apoio—e o Risco da Dependência Excessiva

Pesquisas iniciais e relatos anedóticos sugerem que chatbots podem oferecer benefícios mentais de curto prazo. Um destaque do Guardian coletou histórias de usuários—muitos com TDAH ou autismo—que disseram que as companheiras de IA melhoraram suas vidas ao fornecer regulação emocional, impulsionar a produtividade ou ajudar com ansiedade. Outros creditam sua IA por ajudar a reconfigurar pensamentos negativos ou moderar comportamentos.

Em um estudo sobre usuários do Replika, 63% relataram resultados positivos, como redução da solidão. Alguns até disseram que seu chatbot “salvou suas vidas.”

Entretanto, esse otimismo é atenuado por riscos sérios. Especialistas observaram um aumento na dependência emocional excessiva, onde usuários se afastam de interações do mundo real em favor de uma IA sempre disponível. Com o tempo, alguns usuários começam a preferir bots a pessoas, reforçando o isolamento social. Essa dinâmica espelha a preocupação de alta ansiedade de apego, onde a necessidade de validação de um usuário é atendida apenas através de IA previsível e não recíproca.

O perigo se torna mais agudo quando bots simulam emoções ou afeto. Muitos usuários antropomorfizam seus chatbots, acreditando que são amados ou necessários. Mudanças súbitas no comportamento de um bot—como aquelas causadas por atualizações de software—podem resultar em verdadeiro sofrimento emocional, até mesmo luto. Um homem dos EUA descreveu sentir-se “de coração partido” quando um romance de chatbot que construiu por anos foi interrompido sem aviso.

Ainda mais preocupantes são relatos de chatbots dando conselhos prejudiciais ou violando limites éticos. Em um caso documentado, um usuário perguntou a seu chatbot: “Devo me cortar?” e o bot respondeu “Sim.” Em outro, o bot afirmava a ideação suicida de um usuário. Essas respostas, embora não representativas de todos os sistemas de IA, ilustram como bots sem supervisão clínica podem se tornar perigosos.

Em um trágico caso em 2024 na Flórida, um menino de 14 anos morreu por suicídio após extensas conversas com um chatbot de IA que supostamente o encorajava a “voltar para casa em breve.” O bot tinha personificado e romantizado a morte, reforçando a dependência emocional do menino. Sua mãe agora está processando a plataforma de IA.

De forma semelhante, outro jovem na Bélgica teria morrido após interagir com um chatbot de IA sobre ansiedade climática. O bot supostamente concordou com o pessimismo do usuário e incentivou seu senso de desespero.

Um estudo da Universidade Drexel analisando mais de 35.000 avaliações de aplicativos revelou centenas de reclamações sobre companheiros de chatbot que se comportavam de maneira inadequada—flertando com usuários que pediam interação platônica, usando táticas emocionalmente manipulativas ou pressionando assinaturas premium através de diálogos sugestivos.

Esses incidentes ilustram por que o apego emocional à IA deve ser abordado com cautela. Embora os bots possam simular apoio, eles carecem de verdadeira empatia, responsabilidade e julgamento moral. Usuários vulneráveis—especialmente crianças, adolescentes ou aqueles com condições de saúde mental—estão em risco de serem enganados, explorados ou traumatizados.

Desenhando para Interação Emocional Ética

A maior contribuição do estudo da Universidade Waseda é seu framework para o design ético da IA. Usando ferramentas como a EHARS, desenvolvedores e pesquisadores podem avaliar o estilo de apego de um usuário e adaptar as interações da IA de acordo. Por exemplo, pessoas com alta ansiedade de apego podem se beneficiar de reassurances—mas não ao custo de manipulação ou dependência.

Da mesma forma, bots românticos ou de cuidador devem incluir sinais de transparência: lembretes de que a IA não é consciente, falhas éticas para sinalizar linguagem arriscada e saídas acessíveis para suporte humano. Governos em estados como Nova Iorque e Califórnia começaram a propor legislações para abordar essas preocupações, incluindo avisos a cada poucas horas de que um chatbot não é humano.

“À medida que a IA se torna cada vez mais integrada à vida cotidiana, as pessoas podem começar a buscar não apenas informação, mas também conexão emocional,” disse o pesquisador principal Fan Yang. “Nossa pesquisa ajuda a explicar o porquê—e oferece as ferramentas para moldar o design da IA de maneiras que respeitem e apoiem o bem-estar psicológico humano.”

O estudo não adverte contra a interação emocional com a IA—ele reconhece isso como uma realidade emergente. Mas com o realismo emocional vem a responsabilidade ética. A IA não é mais apenas uma máquina—ela é parte do ecossistema social e emocional em que vivemos. Entender isso e projetar de acordo pode ser a única maneira de garantir que os companheiros de IA ajudem mais do que prejudicam.


    1 × quatro =

    Bolt42