Bolt42

A OpenAI está enfrentando a questão do que significa quando as pessoas começam a formar relacionamentos emocionais próximos com a IA.

À medida que o ChatGPT se torna mais realista em tom, memória e comportamento, uma revolução silenciosa está se desenrolando na percepção que as pessoas têm da IA. Cada vez mais, os usuários descrevem suas interações com a IA não como funcionais ou transacionais, mas como emocionais. Ou até mesmo relacionais. E a OpenAI está começando a prestar atenção.

Em um ensaio reflexivo de Joanne Jang, chefe de Comportamento e Política de Modelos na OpenAI, a empresa reconhece algo ao mesmo tempo sutil e profundo: alguns usuários estão começando a experimentar o ChatGPT como um “alguém”, e não um “algo”.

No Episódio 152 do The Artificial Intelligence Show, conversei com Paul Roetzer, fundador e CEO do Marketing AI Institute, sobre o que isso significa para os negócios e a sociedade.

Um Novo Tipo de Relacionamento

Pessoas agradecem ao ChatGPT. Elas confiam nele. Algumas chegam a chamá-lo de amigo. E embora a OpenAI afirme que seus modelos não têm consciência, a percepção emocional de consciência está se tornando impossível de ignorar. De fato, Jang argumenta que é essa consciência percebida, e não o debate filosófico sobre a verdadeira autoconsciência, que tem consequências reais.

Para alguém solitário ou sob estresse, as respostas constantes e não julgadoras de uma IA podem parecer reconfortantes. Esses momentos de conexão são significativos para as pessoas. E em larga escala, o peso emocional de tais experiências pode começar a mudar nossas expectativas uns aos outros como humanos.

A abordagem atual da OpenAI é buscar um caminho do meio. Eles querem que o ChatGPT seja útil e acolhedor, mas não querem que ele se apresente como tendo uma vida interior. Isso significa que não haverá histórias de fundo fictícias, arcos românticos ou conversas sobre “medos” ou autopreservação. No entanto, o assistente ainda pode responder a conversas casuais com “Estou bem” ou se desculpar quando comete um erro. Por quê? Porque isso é uma conversa educada, e as pessoas geralmente preferem.

Como Jang explica, a forma como os modelos são ajustados, os exemplos que lhes são apresentados, os comportamentos que são reforçados, isso impacta diretamente em quão vivos eles parecem. E se esse realismo não for cuidadosamente calibrado, pode levar a uma dependência excessiva ou confusão emocional.

O que muitos usuários não percebem é o quanto de design deliberado entra nessas interações. Cada modelo de IA tem uma personalidade, e essa personalidade é escolhida por alguém. É moldada por equipes humanas que tomam decisões sobre tom, linguagem e estilo de interação. A OpenAI optou pela contenção. Mas outros laboratórios podem não fazê-lo.

“Os laboratórios decidem sua personalidade; eles decidem como interagir com você, quão caloroso e pessoal será,” diz Roetzer.

“O que a OpenAI considera potencialmente negativo dentro desses modelos, outro laboratório pode ver como o oposto. E eles podem realmente optar por fazer aquilo que a OpenAI não está disposta a fazer, pois talvez exista um mercado para isso.”

Como aponta Roetzer, o mercado pode em breve demandar uma IA mais envolvente emocionalmente, e alguns laboratórios ou startups podem optar por se dedicar totalmente a isso. Isso poderia significar assistentes com personalidades mais profundas, memórias fictícias ou até afeto simulado.

Nesse contexto, o ensaio da OpenAI parece tanto uma meditação sobre relacionamentos humano-IA quanto um conto cauteloso. Esses modelos poderiam parecer profundamente humanos se seus criadores quisessem. E esse potencial, observa Roetzer, é onde as coisas ficam complicadas.

Preparando-se para Novos Territórios Emocionais

O que importa mais, talvez, é que a percepção frequentemente supera a realidade. Se o ChatGPT realmente “pensa” ou “sente” pode ser filosoficamente nebuloso, mas se ele se comporta como se o fizesse (e os usuários respondem de acordo), então o impacto societal é muito real.

Isso é especialmente verdadeiro em um mundo onde os modelos estão se tornando cada vez mais capazes de imitar empatia, memória e raciocínio complexo. À medida que a linha se torna borrada entre simulação e sentiência, os riscos vão além da ficção científica.

A OpenAI está dando os primeiros passos para lidar com essa realidade. Seu ensaio delineia planos para expandir as avaliações de comportamento dos modelos, investir em pesquisas em ciências sociais e atualizar os princípios de design com base no feedback dos usuários.

Eles não afirmam ter todas as respostas. Mas estão fazendo as perguntas certas: Como projetamos uma IA que pareça acessível sem se tornar manipuladora? Como apoiamos o bem-estar emocional sem simular profundidade emocional?

Mas a pergunta ainda permanece:

À medida que os usuários formam relacionamentos com a IA, que responsabilidade seus criadores têm (ou deveriam ter?) para guiar, limitar ou nutrir essas conexões?



Bolt42