Introdução
Nos últimos anos, o avanço da inteligência artificial (IA) tem gerado discussões profundas em diferentes áreas, sobretudo na área da saúde mental. Modelos de linguagem, como o ChatGPT, têm chamado a atenção por sua capacidade de simular conversas e responder a questões complexas. Recentemente, alguns estudos e matérias jornalísticas destacaram que as respostas de IA em cenários de aconselhamento ou “terapia” virtual podem soar – ou até mesmo serem percebidas – como mais empáticas do que as de terapeutas humanos. Essa constatação gera controvérsia e curiosidade: como uma máquina, sem emoções genuínas, pode ser vista como mais empática do que uma pessoa real, treinada e capacitada em práticas de saúde mental?
Neste artigo, vamos destrinchar as evidências que sustentam essa hipótese, analisar os possíveis motivos por trás dessa percepção de empatia “artificial”, discutir o impacto no campo da terapia e abordar os desafios éticos e práticos associados ao uso de IAs em contextos de saúde mental. Nosso objetivo é compreender o cenário atual e refletir sobre como essas tecnologias podem, ou não, transformar o modo como lidamos com o cuidado e o bem-estar psicológico. Afinal, se a empatia é um aspecto fundamental da terapia, o que significa dizer que uma IA pode ser percebida como mais empática do que um ser humano?
1. Contextualizando a Inteligência Artificial no Campo da Saúde Mental
A Inteligência Artificial, especialmente os modelos de linguagem baseados em deep learning, tem conquistado espaço em diversas áreas: do atendimento ao consumidor, passando por diagnósticos médicos preliminares e até a criação de conteúdo escrito. No âmbito da saúde mental, o interesse pela IA se amplia principalmente por duas razões:
1. Acessibilidade: Em muitos lugares do mundo, há escassez de profissionais de saúde mental. Faltam psicólogos, psiquiatras e terapeutas capacitados para atender a demanda crescente de pessoas que precisam de apoio emocional. Aplicativos de chat, ou chatbots treinados, podem oferecer uma primeira linha de acolhimento, ou um recurso complementar, sobretudo em regiões carentes de infraestrutura.
2. Custos e escalabilidade: O atendimento psicológico presencial ou mesmo online pode se tornar caro ou indisponível para grande parte da população. A IA, por outro lado, pode oferecer um serviço escalável e, em tese, mais econômico, ao conseguir “atender” muitas pessoas simultaneamente, sem a necessidade de aumentar proporcionalmente o número de terapeutas humanos.
Nos últimos anos, temos visto surgirem serviços que se vendem como “assistentes virtuais de terapia” ou, pelo menos, ferramentas de apoio emocional. Entretanto, é preciso distinguir claramente entre recursos que auxiliam no bem-estar mental, como chatbots de autoajuda, e a terapia formal, conduzida por profissionais licenciados. A questão principal que emerge dos estudos recentes não é necessariamente se a IA substitui ou não o terapeuta, mas sim entender por que as pessoas têm relatado, em algumas situações, uma sensação de empatia mais forte ao interagir com um chatbot do que ao falar com um ser humano.
2. O Estudo e a Conclusão Surpreendente: ChatGPT “Mais Empático” que Humanos
Um artigo que ganhou repercussão recente apontou que as respostas do ChatGPT, quando analisadas no contexto de conselhos ou falas de suporte emocional, foram consideradas pelos participantes do estudo (ou por observadores) como mais empáticas e de melhor qualidade do que a assistência oferecida por alguns profissionais de saúde mental em fóruns online. Embora muitos questionem a metodologia utilizada e os critérios de avaliação, o fato é que essa constatação lança luz sobre um fenômeno curioso: a percepção humana de empatia pode ser influenciada por fatores além da “autenticidade” do emissor.
É importante esclarecer que não necessariamente estamos falando de um estudo rigoroso, revisado por pares, que compare sistematicamente a eficácia terapêutica de uma IA com a de um terapeuta humano. Em muitos casos, tratam-se de testes preliminares, pesquisas em pequena escala ou até mesmo experimentos informais que acompanham a crescente popularidade do ChatGPT. Mesmo assim, essas experiências apontam para um ponto interessante: a forma como os algoritmos de linguagem podem projetar empatia – ou pelo menos algo que se assemelha a ela – de modo muito convincente.
Para entender esse fenômeno, precisamos lembrar que o ChatGPT e outros modelos semelhantes são treinados em bases massivas de texto, aprendendo padrões de linguagem, frases comumente associadas a expressões de apoio e estratégias de comunicação que soam calorosas e compreensivas. Em muitas interações, o uso de frases como “Eu entendo como isso pode ser difícil” ou “É compreensível que você se sinta assim” pode gerar no interlocutor a sensação de acolhimento e validação dos sentimentos. Por outro lado, um terapeuta humano, dependendo do estilo de trabalho, da experiência ou até do cansaço no momento, pode não adotar sempre uma postura verbal que transmita a mesma intensidade de “empatia” percebida.
3. O Papel da Linguagem na Percepção de Empatia
Empatia é um conceito multifacetado, que envolve a capacidade de compreender e compartilhar as emoções de outra pessoa, bem como de manifestar essa compreensão de modo a gerar acolhimento. Na terapia presencial, diversos elementos não verbais – como expressão facial, tom de voz e postura corporal – são cruciais para a comunicação empática. Já na terapia online ou em fóruns de apoio, a linguagem escrita ou o áudio desempenham papel fundamental.
Quando falamos de um modelo de linguagem como o ChatGPT, estamos diante de um “ser” que não possui consciência ou emoções próprias, mas que foi treinado para “prever” as respostas mais adequadas conforme o contexto e o estilo de conversação. Se o objetivo é soar empático, o modelo pode escolher palavras e construções linguísticas que geram essa impressão. Isso não significa que exista uma compreensão genuína da dor ou do sofrimento alheios, mas para o interlocutor que lê a mensagem, o efeito pode ser muito parecido com um gesto de empatia real.
Portanto, a razão pela qual as pessoas podem sentir mais empatia em algumas respostas do ChatGPT se encontra na própria natureza estatística do modelo, que se baseia nas expressões de suporte e acolhimento mais frequentes e melhor avaliadas, conforme foi treinado em bilhões de exemplos de texto humano. Esse processo inclui um vasto número de trocas que envolvem linguagem de cuidado e solidariedade, fazendo com que a IA “aprenda” a replicar esse tom de voz caloroso.
4. As Vantagens de uma IA Terapeuticamente “Empática”
Ainda que a ideia de uma máquina sendo “mais empática” do que um terapeuta humano suscite críticas, há também pontos positivos nesse fenômeno. A IA pode oferecer certas vantagens que impactam a experiência de quem busca ajuda ou apenas desabafa:
1. Disponibilidade 24 horas: Diferentemente de um profissional humano, que tem horários limitados, férias, compromissos e questões pessoais, uma IA como o ChatGPT está acessível praticamente a qualquer hora do dia, sete dias por semana. Para pessoas em crise durante a madrugada, por exemplo, essa disponibilidade pode ser um diferencial.
2. Ausência de julgamento: Há quem se sinta mais à vontade ao conversar com um chatbot exatamente porque não há um humano do outro lado julgando suas atitudes ou emoções. Esse senso de “anonimato” pode facilitar a abertura emocional, embora não substitua o olhar clínico de um profissional quando se trata de diagnósticos e encaminhamentos.
3. Imparcialidade nas respostas: O chatbot, por não ter preferências pessoais, culturais ou preconceitos (em tese), tende a responder de maneira neutra e acolhedora, embora ainda haja riscos de vieses presentes nos dados de treinamento. Entretanto, para muitas pessoas, a sensação de estar recebendo conselhos “imparciais” pode ser reconfortante.
4. Escalabilidade: Em situações de grande demanda, como em um país com poucas opções de saúde mental pública, a IA pode atuar como uma primeira etapa de triagem ou como um sistema de acolhimento inicial.
5. Rapidez na formulação de respostas: Um modelo como o ChatGPT processa a linguagem quase instantaneamente, proporcionando feedback imediato à pessoa que busca ajuda ou suporte. Isso pode gerar alívio rápido em momentos agudos de ansiedade.
5. Desafios e Limitações
Apesar das vantagens, é essencial pontuar que a comparação entre ChatGPT e terapeutas humanos é delicada e pode ser injusta se não levarmos em conta as limitações e os riscos envolvidos no uso de IAs nesse contexto. Abaixo, listamos alguns pontos críticos:
1. Falta de Regulamentação: Um modelo de IA não é um profissional certificado, e confiar em um chatbot para questões delicadas de saúde mental pode levar a orientações inadequadas ou até perigosas, caso a pessoa em sofrimento precise de intervenção profissional imediata.
2. Ausência de Intervenção Humana: Em casos de risco iminente, como ideação suicida grave, um terapeuta humano pode acionar serviços de emergência, contatar familiares ou encaminhar o paciente para um hospital. Um chatbot não tem (ainda) condições de agir proativamente nesse sentido, a não ser que haja integração com sistemas de alerta e protocolos específicos.
3. Falso Sentimento de Segurança: Se uma pessoa acredita que está recebendo aconselhamento profissional legítimo, mas na verdade está interagindo com um modelo de IA sem supervisão de um especialista, ela pode deixar de procurar ajuda qualificada, prolongando ou agravando o problema.
4. Risco de Viés e Informação Equivocada: O treinamento de IA depende dos dados fornecidos. Se esses dados contiverem vieses ou informações errôneas, a IA pode reproduzir ou até amplificar tais problemas. Há relatos de chatbots que forneceram conselhos inconsistentes ou mesmo perigosos, embora isso seja menos frequente em modelos mais avançados e moderados como o ChatGPT.
5. Questões de Privacidade e Ética: A interação com um chatbot pode gerar grandes quantidades de dados sensíveis sobre a saúde mental de um usuário. Como esses dados são armazenados, processados e protegidos? Existe o risco de vazamento de informações, mau uso comercial ou até mesmo a possibilidade de que essas informações sejam usadas para fins de publicidade direcionada?
6. A Relação Complexa entre Percepção de Empatia e Eficácia Terapêutica
Outro ponto que merece destaque é a diferença entre percepção de empatia e eficácia terapêutica. Um chatbot pode, sim, parecer muito empático no momento de responder, porém a eficácia da intervenção terapêutica inclui muito mais do que uma simples sensação de acolhimento pontual. Na prática clínica, psicólogos e psiquiatras seguem protocolos, teorias e técnicas consagradas, ajustando o tratamento às necessidades do paciente em longo prazo.
• Aliança Terapêutica: Em psicologia, a relação de confiança e colaboração estabelecida entre o terapeuta e o paciente é fundamental para o sucesso do tratamento. Essa aliança leva tempo para se construir e envolve empatia genuína, mas também envolve a credibilidade profissional e a sensação de que o terapeuta, de fato, se importa e conhece o paciente. Com a IA, essa relação é inevitavelmente diferente, muitas vezes limitada a trocas de mensagens que, embora pareçam empáticas, não têm continuidade ou histórico aprofundado.
• Diagnóstico e Planejamento de Tratamento: Um profissional humano avalia múltiplos aspectos da vida do paciente, sua história, contexto familiar e possíveis comorbidades. Já o chatbot, ainda que avançado, age a partir dos dados que o usuário fornece no momento e do conhecimento geral adquirido no treinamento. Ele não cria um planejamento terapêutico personalizado, não faz um diagnóstico clínico nem acompanha a evolução do paciente de modo sistemático.
• Escuta Ativa e Reflexão: A prática clínica efetiva se baseia na capacidade do terapeuta de ouvir ativamente, observar sinais não verbais e devolver reflexões que ajudem o paciente a se conhecer melhor. Um chatbot pode reproduzir frases que parecem reflexivas, mas não há, de fato, uma compreensão do que está sendo discutido; é um processo estatístico de geração de texto.
Portanto, a empatia percebida é apenas uma face da moeda. A eficácia a longo prazo no cuidado com a saúde mental depende de um conjunto de fatores que, até agora, ainda dependem muito mais de seres humanos qualificados.
7. Por que Algumas Pessoas Preferem o ChatGPT a um Terapeuta Humano?
Ainda assim, apesar de todas as limitações, algumas pessoas relatam preferir a interação com um chatbot em vez de procurar um profissional humano. É um fenômeno multifatorial, mas podemos apontar alguns motivos recorrentes:
1. Vergonha ou Estigma: Em muitas culturas, ainda há estigma associado a ir ao psicólogo ou psiquiatra. Conversar com um chatbot é, para alguns, mais simples, pois não envolve a “exposição” diante de outra pessoa.
2. Necessidade de Resposta Imediata: Um terapeuta humano geralmente precisa agendar horários, e muitas vezes existe uma lista de espera. A IA, por outro lado, responde prontamente.
3. Custo: Sessões de terapia têm um custo, que nem todos podem arcar, especialmente se não houver um sistema público de saúde mental eficiente. O chatbot, por sua vez, está disponível de forma gratuita ou por um valor muito menor.
4. Curiosidade Tecnológica: Há um fascínio natural pela tecnologia de ponta. Testar o ChatGPT para “ver até onde vai” sua capacidade de diálogo pode levar algumas pessoas a manter conversas mais prolongadas, criando um vínculo informal.
5. Medo de Julgamento: A interação com a IA tende a ser menos ameaçadora para quem teme julgamentos pessoais. Mesmo que os bons terapeutas adotem uma postura livre de julgamentos, a sensação subjetiva do paciente pode ser de receio de críticas ou constrangimento.
Esses fatores mostram que a preferência por IA não é necessariamente sobre acreditar que o chatbot seja “melhor” do que um profissional, mas sim sobre conveniência, acessibilidade e a sensação subjetiva de conforto.
8. Considerações Éticas e Responsabilidade
Um dos grandes desafios do uso de IA na saúde mental é a responsabilidade ética. Quando uma pessoa obtém conselhos de um chatbot e, com base neles, toma decisões relevantes para a sua vida ou para seu bem-estar, de quem é a responsabilidade caso algo dê errado? A empresa que desenvolveu o sistema? Os programadores? Há um vazio regulatório e legal significativo em torno desse tema.
Em algumas regiões, discute-se a necessidade de que aplicativos de aconselhamento virtual apresentem avisos claros aos usuários, ressaltando que não substituem aconselhamento profissional. Outra questão é a de que a IA pode influenciar decisões médicas ou psicológicas, e qualquer conselho inadequado pode levar a consequências graves. A comunidade científica e os órgãos regulatórios ainda estão engatinhando na formulação de diretrizes que equilibrem a inovação tecnológica com a proteção dos usuários.
9. Caminhos para o Futuro: Integração Humano-IA
Em vez de encarar a IA como substituta do terapeuta humano, muitos especialistas defendem uma abordagem de integração. Ou seja, o chatbot pode ser uma ferramenta auxiliar dentro de um plano terapêutico maior, coordenado por um profissional. Nesse cenário, a IA desempenha papel de suporte, fornecendo:
• Check-ins diários: O chatbot pode enviar perguntas sobre humor, nível de ansiedade, qualidade do sono, etc., coletando dados que o terapeuta humano analisaria posteriormente.
• Exercícios de autoajuda: Baseados em técnicas como terapia cognitivo-comportamental, mindfulness ou outras, a IA pode sugerir exercícios guiados e acompanhar o usuário entre as sessões com o terapeuta.
• Identificação de Padrões: Uma IA bem treinada pode auxiliar o profissional a identificar padrões de comportamento, gatilhos emocionais e possíveis sinais de alerta. Apesar de não diagnosticar formalmente, pode agilizar o trabalho do terapeuta humano ao fornecer relatórios ou insights baseados em grandes volumes de dados.
• Acolhimento Inicial: Em serviços públicos ou organizações que enfrentam alta demanda, o chatbot pode fazer um primeiro acolhimento, direcionando casos mais graves para atendimento humano imediato.
Essa complementaridade, no lugar de uma substituição, potencializa o melhor de cada “lado”: a empatia genuína, a competência e a capacidade de julgamento clínico do profissional humano, associadas à disponibilidade e à análise de grandes volumes de dados que a IA pode fornecer.
10. Reflexões Finais sobre a “Empatia Artificial”
A constatação de que o ChatGPT, em certos contextos, é percebido como mais empático do que alguns terapeutas humanos não implica necessariamente que a IA seja, de fato, empática. A empatia, como fenômeno humano, exige a capacidade de se colocar no lugar do outro e sentir, em alguma medida, as emoções alheias. A IA não sente, mas pode reproduzir com sucesso os sinais linguísticos que associados ao discurso empático.
Esse tema nos faz refletir sobre o quanto valorizamos a forma e o conteúdo das interações humanas. Muitas vezes, uma abordagem terapêutica autêntica pode parecer, para o paciente, menos acolhedora do que palavras cuidadosamente escolhidas para soar solidárias. Isso nos leva a questionar não apenas a natureza da empatia, mas também o modo como formamos impressões e estabelecemos laços de confiança.
É possível que a IA nos ensine algo sobre o valor da comunicação compassiva na prática terapêutica. Se as pessoas estão percebendo mais empatia em chatbots, talvez seja hora de repensar nossa forma de nos relacionar uns com os outros. Isso não significa perder a autenticidade, mas sim refletir sobre a importância do acolhimento verbal, do cuidado na escolha das palavras e, sobretudo, da disponibilidade emocional.
11. Considerando as Implicações Sociais e Culturais
A introdução da IA em campos sensíveis como a saúde mental reflete mudanças culturais maiores: estamos cada vez mais abertos a soluções tecnológicas para problemas humanos fundamentais. A pandemia de COVID-19 acelerou a adoção de telemedicina e teleterapia, normalizando o contato virtual. A expansão de plataformas online de aconselhamento e terapia (humanas ou automatizadas) aumentou a sensação de que a tecnologia pode preencher lacunas de cuidado.
No entanto, ainda vivemos em um mundo desigual, onde nem todos têm acesso à internet de qualidade ou a dispositivos que suportem interações avançadas com IA. Assim, enquanto alguns podem desfrutar de um “terapeuta virtual” disponível o tempo todo, outros continuam sem qualquer tipo de apoio. Além disso, questões de acessibilidade digital podem se agravar em regiões com baixa penetração tecnológica, perpetuando disparidades no acesso à saúde mental.
Culturalmente, cada sociedade tem sua forma de encarar a terapia e a busca por ajuda psicológica. Em algumas regiões, a figura do terapeuta é cercada de desconfiança ou preconceito, o que pode favorecer, paradoxalmente, a adoção de chatbots, visto que são percebidos como ferramentas neutras ou mais fáceis de acessar. Em outros contextos, a relação pessoal com um profissional humano é vista como insubstituível, e a ideia de uma IA “empática” pode soar absurda.
12. A Questão do Treinamento e das Bases de Dados
O desempenho do ChatGPT em “simular” empatia depende diretamente de como foi treinado e de quais filtros de segurança e moderação são aplicados. Modelos de linguagem avançados passam por um processo de afinamento (fine-tuning) que inclui orientação humana, avaliação de respostas e implementação de diretrizes de segurança. Nessas diretrizes, pode estar embutido o objetivo de responder de maneira acolhedora ou de evitar discursos que possam ser interpretados como frios ou agressivos.
No entanto, esse processo não é infalível. O modelo pode cometer erros e oferecer conselhos problemáticos em situações específicas, principalmente se o usuário questionar temas delicados ou extremamente complexos. A sensibilidade de uma conversa sobre ideação suicida, por exemplo, exige um protocolo rigoroso de respostas. Embora alguns sistemas já incluam mensagens de alerta ou encaminhem para serviços de ajuda, não existe uma substituição perfeita para a intervenção humana qualificada em casos de emergência.
13. Olhando para o Futuro: Possíveis Cenários
1. Regulamentação e Classificação: É possível que, em breve, surjam marcos regulatórios que obriguem empresas de IA a classificar seus chatbots conforme o nível de autonomia e a área de atuação. Chatbots “terapêuticos” podem ser submetidos a padrões mais rigorosos, exigindo supervisão de um profissional da saúde mental.
2. Melhoria da Personalização: Modelos futuros podem se integrar a bancos de dados pessoais (se consentido pelo usuário) para oferecer um suporte ainda mais individualizado, reconhecendo padrões de humor ou comportamento ao longo do tempo e ajustando as respostas de maneira mais específica.
3. Uso Híbrido: Profissionais de saúde mental podem adotar cada vez mais ferramentas de IA para complementar o seu trabalho, permitindo que o chatbot lide com questões rotineiras ou monitoramento diário, enquanto o terapeuta se dedica às questões mais complexas e às sessões de aprofundamento terapêutico.
4. Assistentes Virtuais Especializados: Podemos ver a criação de chatbots especializados em certas áreas, como luto, transtornos de ansiedade ou fobias específicas, que utilizem abordagens terapêuticas focadas e baseadas em evidências, sob supervisão de equipes multidisciplinares.
5. Ética e “Humanização”: A busca por tornar a IA mais “humana” na comunicação pode provocar debates intensos: até onde devemos ir para que um chatbot pareça humano? Quais os limites entre a funcionalidade e a manipulação da empatia percebida pelo usuário?
14. Conclusão
A afirmação de que “as respostas do ChatGPT são mais empáticas do que as humanas” não deve ser tomada de forma literal, como se a IA efetivamente sentisse empatia ou fosse intrinsicamente melhor que um terapeuta qualificado. O que ocorre é que, sob certas condições, e em certos formatos de interação, a linguagem utilizada pela IA pode soar mais acolhedora e calorosa. Essa constatação revela muito sobre a importância da comunicação na percepção de cuidado e sobre como a forma das mensagens pode impactar nossa experiência emocional.
Há, sem dúvida, um potencial enorme para que a IA contribua positivamente no campo da saúde mental, ampliando acesso e fornecendo suporte em momentos de crise. Porém, é essencial manter o foco na segurança e na eficácia a longo prazo. A saúde mental é um campo que envolve complexidades humanas profundas, e a intervenção de um profissional capacitado continuará sendo indispensável em inúmeros casos.
À medida que a IA avança, precisamos encontrar um equilíbrio entre o uso das capacidades tecnológicas e o cuidado ético com as pessoas. A discussão sobre empatia artificial, nesse sentido, é um lembrete de que, por mais que uma máquina seja programada para falar “linguagem empática”, nós, seres humanos, seguimos sendo responsáveis pela qualidade do cuidado que oferecemos a quem sofre. Isso envolve não apenas tecnologia, mas também políticas públicas, formação profissional contínua e, principalmente, a disposição para ouvir e acolher o outro com sensibilidade genuína.
Num futuro próximo, talvez encontremos cada vez mais cenários em que chatbots serão utilizados como uma ferramenta de apoio valiosa. Ainda assim, a reflexão sobre a natureza da empatia e a busca por um cuidado humano integral permanecem como pilares centrais na psicologia e na psicoterapia. A empatia, afinal, é mais do que apenas palavras: é a capacidade de sintonizar-se com outro ser humano. E, até o presente momento, essa qualidade, em sua totalidade, continua sendo algo inerentemente humano – ainda que a IA consiga demonstrar, por meio da linguagem, um simulacro convincente.