
Inteligência artificial como terapeuta: quais os riscos dessa prática?
A chegada de assistentes e chatbots cada vez mais sofisticados reacendeu o debate sobre o uso da inteligência artificial como instrumento de cuidado emocional. Pronta para responder, não julgadora e acessível 24 horas por dia, a IA tem sido procurada por pessoas em busca de autoconhecimento e alívio imediato. Para o psicólogo Alexander Bez, no entanto, há limitações claras, e perigos reais, quando a tecnologia assume o papel de terapeuta.
“A IA pode ser funcional em tarefas pontuais, em intervenções simples em que não existe risco clínico. Mas precisamos saber até onde podemos usá-la, e até onde não podemos. A saúde mental é coisa séria”, alerta. Segundo Bez, a psicoterapia se baseia em um princípio insubstituível: a troca entre profissional e paciente. “É nessa interação que se produz o efeito psicoterapêutico. Você até pode fazer terapia online com um profissional qualificado, mas através da IA você não consegue essa troca pulsante. Nenhuma ferramenta vai substituir o homem”.
O psicólogo destaca ainda que transtornos como depressão e ansiedade nem sempre respondem apenas a orientações pontuais: “Algumas patologias precisam de medicação e acompanhamento constante. O cérebro tem uma psicodinâmica, é um órgão em movimento, e demanda interação humana.” Para ele, a velocidade e a eficiência aparentes da IA podem criar uma sensação enganosa de resolução. “A psicoterapia é lenta, requer escuta, presença e tempo. Essa lentidão é parte do processo terapêutico e a IA não respeita isso”.
Bez lembra também de casos recentes em que recomendações automatizadas levaram a desfechos graves. “Há reportagens e estudos que ligaram conselhos de sistemas automatizados a situações de risco. Isso mostra que precisamos ter muita cautela.” Ele reforça que o papel adequado da inteligência artificial deve ser apenas complementar: auxiliar na triagem, fornecer orientação básica ou apoiar entre sessões. Jamais como terapeuta autônomo para tratar neurose, depressão grave, ideação suicida ou outras patologias sérias. É preciso regulamentação, supervisão humana e clareza sobre limites. Do contrário, corremos o risco de causar mais danos do que benefícios”.