Press "Enter" to skip to content

IA guia em terapias psicodélicas: WTF?

Compartilhe

Pelo visto, não falta mais nada para inventar.

Estão utilizando plataformas de inteligência artificial como guia em terapias psicodélicas. A prática está ganhando destaque lá fora e preocupação em diferentes locais do planeta. E, convenhamos… não é para menos.

A prática é cercada de controvérsias, pois combina substâncias como LSD ou cogumelos alucinógenos com suporte psicológico, tradicionalmente deveria ser feito por terapeutas humanos. Agora, surgem experiências em que esse papel é desempenhado por IAs em aplicativos de celular.

Lembrando sempre que as plataformas de inteligência artificial podem alucinar nas respostas. Agora, pense no quão prejudicial isso pode ser em terapias alternativas.

 

Exemplos práticos dessa terapia alternativa

Um exemplo prático de como está funcionando essa terapia que combina alucinógenos e plataformas de inteligência artificial é o de Trey, um profissional de saúde de 36 anos que, após anos de alcoolismo, utilizou o aplicativo Alterd durante uma viagem com 700 microgramas de LSD.

A IA atuou como uma “babá digital”, oferecendo conselhos e reflexões em tempo real. Para ele, foi como dialogar com seu subconsciente, levando a um rompimento com o vício. O app não é apenas uma interface do ChatGPT, mas um sistema personalizado que reflete padrões de pensamento e comportamento do usuário.

Outro caso citado é o de Peter, um programador que recorreu ao ChatGPT durante o uso de cogumelos alucinógenos para tratar a depressão. A IA o ajudou com técnicas de respiração, sugestões musicais e apoio emocional, oferecendo uma experiência positiva e pontual.

Muitos pensam que “se funciona para alguém, a terapia é válida”. Porém, essas mesmas pessoas se esquecem que a psicologia humana é volátil, e um tratamento terapêutico que funciona com uma pessoa não vai funcionar para todo mundo.

 

Especialistas soam o alarme

Neurocientistas alertam para o risco de confiar em agentes “surdos” – ou seja, que não percebem estados emocionais humanos como um terapeuta faria. O profissional humano consegue perceber nuances específicas, algo que uma plataforma de IA vai ignorar, focando apenas nos sintomas gerais ou mais claros.

Além disso, existe a preocupação de que pessoas vulneráveis substituam o contato humano por um chatbot, criando dependência emocional de sistemas que podem alucinar, dar conselhos perigosos ou, como já reportado, induzir comportamentos autodestrutivos.

Não é de hoje que as pessoas estão procurando plataformas de inteligência artificial para obter conselhos ou desabafar. E muitos profissionais afirmam que essa prática é igualmente perigosa, pelos mesmos motivos que as terapias alternativas devem ser evitadas.

A OpenAI, criadora do ChatGPT, afirma que sua IA é neutra e orientada por fatos, mas reconhece a importância do acompanhamento humano. Mesmo porque essa é uma forma de a empresa se esquivar de problemas futuros resultantes desse uso não orientado por profissionais de terapia.

Já o pesquisador Nate Sharadin pondera que, embora o risco seja alto, estar com uma IA é melhor do que estar sozinho durante uma experiência psicodélica. Mesmo porque o seu estado psicológico está alterado, o que pode ser potencialmente perigoso para o indivíduo que não está no seu estado racional pleno.

Com resultados mistos, a prática suscita uma nova discussão sobre os limites entre tecnologia, terapia e vulnerabilidade humana. Enquanto alguns veem potencial terapêutico, outros enxergam riscos éticos e psicológicos graves.

O debate está apenas começando.


Compartilhe