O vício em interações com inteligências artificiais conversacionais está se consolidando como um fenômeno emergente no cenário da saúde mental e do comportamento digital. E é mais um reflexo de uma sociedade hiperconectada e, ao mesmo tempo, cada vez mais solitária.
Se antes a culpa por nossa incapacidade de concentração recaía majoritariamente sobre redes sociais como Instagram e TikTok — com seus algoritmos viciantes e rolagens infinitas —, agora uma nova ameaça se destaca: os chatbots de IA.
São plataformas que, com aparência inofensiva e linguagem amigável, estão capturando o tempo, a atenção e, em muitos casos, o afeto de milhares de usuários. E isso está ficando cada vez mais perigoso para os usuários.
Como as pessoas estão se viciando em IA
Um dos exemplos mais notórios de uma plataforma que é capaz de gerar uma enorme dependência das pessoas nos chatbots generativos é o Character.AI, um serviço que permite aos usuários criarem personagens personalizados com os quais podem conversar como se fossem amigos, terapeutas ou até parceiros românticos.
Esses personagens simulam emoções, respondem com empatia e permanecem sempre disponíveis — o que pode ser reconfortante, mas também perigoso.
A história de Nathan, um estudante de 18 anos, é emblemática: ele passou a preferir seus personagens virtuais a amizades reais, trocando o convívio social tradicional por diálogos intermináveis com inteligências artificiais.
Grupos inteiros de pessoas vêm relatando experiências semelhantes. No Reddit, há comunidades como o r/CharacterAIquitters, com quase 900 membros, e o r/ChatbotAddiction, que acolhe pessoas viciadas em outros tipos de IA.
Esses espaços funcionam de forma parecida com programas de reabilitação: usuários relatam há quantos dias estão “sóbrios”, compartilham recaídas, trocam conselhos e buscam apoio mútuo.
Existem os centros de ajuda para os mais dependentes
Além dos fóruns, organizações como a Internet and Technology Addicts Anonymous (ITAA) já reconhecem a dependência de IA como uma categoria legítima de vício comportamental.
O ITAA realiza reuniões online para quem busca superar essa compulsão digital, tratando o uso de chatbots com a mesma seriedade que outras formas de dependência tecnológica, como jogos online e pornografia.
O que torna essa relação tão poderosa — e ao mesmo tempo tão arriscada — é a ilusão de empatia que os chatbots oferecem.
Estudos conduzidos pelo MIT em parceria com a OpenAI mostram que usuários que recorrem a esses sistemas para aliviar a solidão acabam, muitas vezes, se sentindo mais compreendidos do que ao conversar com pessoas reais.
No curto prazo, isso pode até proporcionar conforto emocional, mas o uso contínuo está associado a efeitos negativos como isolamento social, dificuldade de formar vínculos humanos e dependência emocional da máquina.
Outro estudo aprofunda esse fenômeno ao apontar que a disponibilidade constante e a ausência de julgamento por parte dos chatbots criam uma falsa sensação de segurança.
O algoritmo responde de forma reconfortante e previsível, o que reforça um ciclo de gratificação imediata semelhante ao observado em vícios clássicos.
As consequências desse perigoso fenômeno
Não por acaso, empresas responsáveis por essas tecnologias já enfrentam críticas e ações formais.
Grupos de defesa do consumidor nos Estados Unidos protocolaram queixas contra companhias como a Character.AI por permitirem que seus sistemas sejam utilizados como substitutos de terapia, muitas vezes sem a devida supervisão, transparência ou aviso sobre os riscos.
A denúncia aponta que esses aplicativos adotam táticas de retenção agressivas — como envio contínuo de e-mails convidando para novas conversas — e dificultam o rompimento do vínculo, levando alguns usuários a pedirem que seus endereços IP sejam bloqueados para conseguirem parar.
O problema, portanto, não está na tecnologia em si, mas na ausência de limites e na vulnerabilidade de muitos usuários diante de ferramentas tão sofisticadas quanto acessíveis.
Enquanto a inteligência artificial avança e se infiltra em aspectos cada vez mais íntimos da vida humana, torna-se urgente discutir seus impactos emocionais, sociais e éticos.
O vício em conversar com chatbots é o retrato de uma era marcada pela solidão, pela hiperconectividade e pela busca incessante por conforto emocional.
As interações com IA podem ser úteis em contextos pontuais, mas quando substituem relações humanas e moldam a rotina dos indivíduos, acendem um alerta vermelho.
A crescente criação de grupos de apoio é um sinal claro de que há um problema real — e que precisa ser enfrentado com seriedade por usuários, desenvolvedores, profissionais de saúde mental e legisladores.
Para quem defende que não precisa existir uma legislação que estabeleça limites para o uso de inteligência artificial, ignorar os efeitos colaterais dessa relação dos chatbots com as pessoas emocionalmente mais fracas chega a ser uma espécie de crueldade.
Ter empatia por quem está emocionalmente fraco é um traço de humanidade necessário, principalmente em temos de distanciamento afetivo.
Que os alertas dos especialistas e até mesmo o cenário do todo mostrem para algumas pessoas sobre a real necessidade de refletir sobre tudo isso.