Inteligência artificial não é terapeuta

cOMPARTILHE:

O avanço da inteligência artificial trouxe grandes inovações, inclusive no campo da saúde mental. Ferramentas como chatbots, aplicativos de exercícios para aliviar a ansiedade e outros sintomas emocionais podem até trazer conforto imediato a quem enfrenta crises ou sentimentos de solidão. Porém, a sensação de acolhimento que essas plataformas geram não deve ser confundida com cuidado terapêutico real. Elas não pensam, não sentem e não são capazes de formular julgamentos éticos ou clínicos. São apenas algoritmos ajustando palavras com base em padrões estatísticos.

A falta de regulamentação agrava ainda mais esse cenário. Pessoas em situações de vulnerabilidade estão confiando suas angústias a sistemas que não têm qualquer responsabilidade legal sobre os impactos de suas respostas. Ao contrário dos profissionais de saúde mental, que seguem códigos de ética e são treinados para lidar com o sofrimento humano, essas ferramentas operam sem filtros, podendo reforçar ideias nocivas ou, pior, deixar de identificar sinais de risco iminente, como pensamentos suicidas ou episódios de psicose.

É urgente que a sociedade compreenda os limites dessas tecnologias. A inteligência artificial pode ser uma aliada na organização emocional, mas jamais deve ocupar o lugar da escuta humana qualificada. Enquanto não houver regras claras para o uso terapêutico dessas ferramentas, e enquanto elas continuarem simulando vínculos sem qualquer responsabilidade real, confiar exclusivamente na IA para cuidar da saúde mental será, no mínimo, imprudente.

Comente:

Deixe um comentário

# Últimas notícias

Utilize nosso formulário para fazer sua denúncia.

Você também poderá entrar em contato acessando nossos canais.

Este site utiliza cookies para melhorar a experiência dos usuários. Ao acessar nosso site você concorda com nossas políticas de privacidade.