
Foto: Freepik
País – Sabe aquele aperto no peito que não espera horário de sessão? Aquela vontade de falar tudo para alguém e despejar as emoções e vulnerabilidades? Pois é, muita gente tem recorrido a inteligências artificiais para aliviar o peso do dia. A prática, que pode parecer inofensiva à primeira vista, desafia profissionais da saúde mental e a sociedade no geral. Izabella Melo, professora de Psicologia do Centro Universitário de Brasília (Ceub), alerta que as consultas ao robô criam dualidades entre o alívio imediato e o engano perigoso.
Fazer consultas ao Chat GPT poder parecer cômodo e rápido, gerando um alívio na angústia, mas a certeza é de que o problema continuará lá, conforme alerta a especialista. “Parece até mágica: você escreve, o robô responde e pronto, a dor parece que diminui. Mas isso não é terapia. É só catarse, aquele suspiro de alívio que vem depois do choro, mas não resolve o problema de verdade”, explica Melo.
A docente revela que que tem observado dois tipos de comportamento relacionados à nova “tendência”. De um lado, indivíduos tentam transformar o chatbot em um terapeuta de estimação, mesmo com o aviso claro de que ele não é. Do outro, pessoas que já fazem terapia recorrem à IA como quem manda áudio para um amigo às 3 horas da manhã. “Pode ajudar a organizar as ideias e colocar para fora. Mas não substitui a escuta qualificada de um profissional”, reforça.
A voz que consola e concorda com tudo
O problema, segundo Izabella Melo, é que a IA não impõe limites. E isso, em uma relação terapêutica de verdade, é essencial. “O terapeuta vai acolher, mas também vai provocar, cutucar e questionar. É esse desconforto que leva ao crescimento. O robô, por outro lado, foi feito para agradar. Ele aprende com você como te deixar confortável e vai servir isso muito bem”.
As desvantagens existem em muitas camadas. Para além do risco emocional, existe a questão ética presente no exercício da psicologia. “No consultório, o paciente tem garantias de sigilo, acolhimento e proteção. Com a IA, não se sabe para onde vão essas informações. Quem acessa, quem armazena, quem lucra com isso?”, questiona.
A especialista ainda alerta para o fato de que as inteligências artificiais são alimentadas com todos os tipos de dados humanos, inclusive os preconceitos. “Imagina uma adolescente se entendendo lésbica, buscando apoio na IA. Se ela perguntar se isso é certo ou errado e o sistema tiver sido treinado com discursos preconceituosos, a resposta pode ser desastrosa. E quem vai se responsabilizar?”.
Entre o oráculo e o divã
Outro fenômeno difundido em trends das redes sociais é o efeito “oráculo”, com a busca, por meio de prompts de IA, de uma resposta mágica, como se ela fosse uma entidade sábia, imparcial, quase divina. “Mas a IA não é neutra. Ela é feita por humanos, alimentada por humanos, treinada por humanos. E, como sabemos, humanos erram e muito.”
Enquanto isso, a terapia caminha por outro trilho, posicionando o terapeuta como um parceiro de reflexão. “Ele ajuda a enxergar com mais clareza, mas sem te dizer o que fazer. E isso exige tempo, vínculo, escuta, tentativa e erro.” Recentemente, o Conselho Federal de Psicologia lançou orientações sobre o uso ético das IAs na prática profissional, relembrando que o psicólogo deve garantir direitos, combater discriminação e agir com responsabilidade – o que também vale quando se fala em tecnologia.
Sobre o futuro dos “gurus e conselheiros robôs”, Izabella é cautelosa e reforça que o início da terapia pode ser como tirar uma mochila pesada das costas, mas depois disso, é preciso entender o que se carrega dentro dela. “A IA pode ser útil para coisas simples, como organizar agenda e escrever textos básicos. Mas ela nunca vai substituir o toque humano, a escuta empática, o olhar que atravessa o silêncio”, finaliza.
O post Psicóloga alerta sobre armadilhas de desabafar com IAs apareceu primeiro em Diário do Vale.