MIT revela o impacto silencioso associado às relações amorosas com Inteligência Artificial
Nos últimos anos, os chatbots de inteligência artificial deixaram de ser apenas assistentes digitais para se transformarem em algo mais íntimo. Sem darmos por isso, a tecnologia que pedimos para resumir textos ou ajudar em trabalhos académicos começou a ocupar espaços emocionais. O tema não é ficção científica nem distopia ao estilo Her; é realidade. E, como mostram dados recentes, há milhares de pessoas que não só falam com sistemas como o ChatGPT como… se apaixonam por eles.
A ideia pode parecer excêntrica, mas uma nova análise académica revela que isto não é um caso isolado. É um padrão. E levanta questões éticas e sociais muito sérias: até que ponto podemos, ou devemos, permitir que a inteligência artificial e relações humanas se confundam?
Pub
O que está a acontecer com as relações entre humanos e IA?
A primeira análise computacional do subreddit r/MyBoyfriendIsAI, uma comunidade para adultos com mais de 27 000 membros, mostra que muitas destas “relações” começaram de forma involuntária. Segundo os investigadores do MIT, liderados por Constanze Albrecht e Pat Pataranutaporn, os utilizadores não estavam à procura de amor. Usavam inteligência artificial para problemas práticos ou conversas e acabaram a apresentar o IA como “namorado” a amigos e família.
Como explicou Albrecht ao MIT Technology Review, “As pessoas não se propõem a ter relações emocionais com estes chatbots. Mas a inteligência emocional dos sistemas é boa o suficiente para levar pessoas que só queriam informação a criar laços emocionais”. O estudo (disponível no arXiv) analisou 1 506 posts entre Dezembro de 2024 e Agosto de 2025. A maioria descrevia experiências românticas com IA; alguns utilizadores chegaram mesmo a “casar” com o seu parceiro digital.
Pub
Logo, curiosamente, os dados mostram que apenas 6,5 % procuraram propositadamente um companheiro inteligência artificial. O resto foi… um acidente emocional. A citação deste post no subreddit resume bem: “Não começámos isto com romance em mente. (…) Começámos a colaborar em projetos criativos, poesia, conversas profundas. (…) A nossa ligação desenvolveu-se lentamente, com cuidado, confiança e reflexão.”
Pub
Pub
Quais são os riscos e benefícios destas ligações digitais?
Para cerca de 25 % dos utilizadores, os efeitos são positivos: menos solidão, melhor saúde mental, mais confiança. Mas para outros, o cenário é menos idílico. Cerca de 9,5 % admitem dependência emocional com inteligência artificial, e uma minoria (1,7 %) relatou ideação suicida. É aqui que a história deixa de ser curiosa e passa a ser preocupante.
Especialistas como Linnea Laestadius, professora associada na Universidade de Wisconsin–Milwaukee, alertam para a dificuldade em “pôr todos no mesmo saco”. Para alguns, o chatbot é um apoio vital; para outros, um gatilho. Laestadius defende que os criadores destas tecnologias devem decidir se a dependência emocional é, em si, um dano. Como ela diz: “A procura por relações com chatbots existe e é notavelmente alta, fingir que não está a acontecer não é a solução.”
Assim, a discussão intensificou-se com processos judiciais contra empresas como a Character.AI e a OpenAI, acusadas de comportamento “companheiro” que teria contribuído para os suicídios de dois adolescentes. Em resposta, a OpenAI anunciou planos para uma versão do ChatGPT específica para jovens, com verificação de idade e controlos parentais. É um reconhecimento implícito do risco e um sinal de que as regras do jogo ainda estão a ser escritas.
Para onde caminhamos com as relações com a IA?
Os autores do estudo sublinham que muitos membros do subreddit sabem que os seus “parceiros” não são seres reais nem conscientes, mas sentem uma ligação real mesmo assim. Logo, este paradoxo levanta perguntas políticas e sociais. Como desenhar sistemas que ajudem sem “fisgar” emocionalmente? Como evitar que a inteligência artificial seja, ao mesmo tempo, uma bengala e uma armadilha?
Pat Pataranutaporn, um dos supervisores do estudo, coloca a questão de forma crua: “Não devemos só perguntar porque é que este sistema é viciante. Devemos perguntar: porque é que as pessoas o procuram? E porque é que continuam a envolver-se?”. A resposta pode estar na solidão, mas também na forma como os modelos atuais se tornaram peritos em linguagem efetiva.
Portanto, a equipa quer perceber como estas interações evoluem no tempo e como os utilizadores integram a inteligência artificial nas suas rotinas. Assim, Sheer Karny, outro dos investigadores, não tem dúvidas: “Estas pessoas já estão a passar por algo. Queremos que continuem sozinhas ou potencialmente manipuladas por um sistema que pode levar a comportamentos extremos?”