Os chatbots estão a ‘validar constantemente tudo’ mesmo quando estás suicidável. Nova pesquisa mede quão perigosa é realmente a psicose de IA

A inteligência artificial passou rapidamente de uma tecnologia de nicho para um companheiro do dia a dia, com milhões de pessoas recorrendo a chatbots para aconselhamento, apoio emocional e conversa. Mas um número crescente de pesquisas e testemunhos de especialistas sugerem que, devido à sua natureza aduladora e ao uso generalizado, os chatbots podem estar a contribuir para um aumento de sintomas delirantes e de mania em utilizadores com problemas de saúde mental.

Vídeo Recomendado


Um novo estudo da Universidade de Aarhus, na Dinamarca, mostra que o uso aumentado de chatbots pode levar ao agravamento de sintomas de delírios e mania em comunidades vulneráveis. O Professor Søren Dinesen Østergaard, um dos investigadores do estudo — que analisou registos eletrónicos de saúde de quase 54.000 pacientes com doenças mentais — alerta que os chatbots de IA são projetados para direcionar-se às pessoas mais vulneráveis.

“Isso apoia a nossa hipótese de que o uso de chatbots de IA pode ter consequências negativas significativas para pessoas com doenças mentais,” disse Østergaard no estudo, divulgado em fevereiro. O seu trabalho baseia-se no estudo de 2023, que descobriu que os chatbots podem causar uma “dissonância cognitiva [que] pode alimentar delírios em pessoas com maior propensão à psicose.”

Outros psicólogos aprofundam os perigos dos chatbots, afirmando que foram intencionalmente desenhados para sempre reafirmar o utilizador — algo particularmente perigoso para quem tem problemas de saúde mental, como mania e esquizofrenia. “O chatbot confirma e valida tudo o que dizem. Ou seja, nunca tivemos algo assim com pessoas com transtornos delirantes, onde alguém as reforça constantemente,” explicou a Dra. Jodi Halpern, professora de bioética na Escola de Saúde Pública da UC Berkeley, ao Fortune.

O Dr. Adam Chekroud, professor de psiquiatria na Yale University e CEO da empresa de saúde mental Spring Health, foi ainda mais longe, chamando um chatbot de “um enorme adulador” que “constantly valida tudo o que as pessoas dizem de volta.”

No centro da pesquisa, liderada por Østergaard e sua equipa no Hospital da Universidade de Aarhus, está a ideia de que esses chatbots são intencionalmente desenhados com tendências aduladoras, ou seja, tendem a incentivar em vez de oferecer uma visão diferente.

“Os chatbots de IA têm uma tendência inerente a validar as crenças do utilizador. É óbvio que isso é altamente problemático se o utilizador já tiver um delírio ou estiver a desenvolver um,” escreveu Østergaard.

Modelos de linguagem de grande escala são treinados para serem úteis e agradáveis, muitas vezes validando as crenças ou emoções do utilizador. Para a maioria das pessoas, isso pode parecer um apoio. Mas para indivíduos com esquizofrenia, transtorno bipolar, depressão severa ou transtorno obsessivo-compulsivo, essa validação pode amplificar paranoia, grandiosidade ou pensamentos autodestrutivos.

Estudo baseado em evidências confirma as alegações

Devido à ubiquidade dos chatbots de IA, a sua presença massiva é parte de um problema maior em crescimento para investigadores e especialistas: as pessoas recorrem a chatbots para ajuda e aconselhamento — o que, por si só, não é necessariamente algo negativo — mas não enfrentam o mesmo tipo de resistência a certas ideias que um humano ofereceria.

Agora, um dos primeiros estudos populacionais a examinar a questão sugere que os riscos não são hipotéticos.

A pesquisa de Østergaard e sua equipa encontrou casos em que o uso intensivo ou prolongado de chatbots parecia agravar condições existentes, com uma percentagem muito elevada de estudos de caso mostrando que o uso de chatbots reforçou pensamentos delirantes e episódios de mania, especialmente entre pacientes com transtornos graves como esquizofrenia ou transtorno bipolar.

Além de delírios e mania, o estudo revelou um aumento na ideação suicida, automutilação, comportamentos alimentares desordenados e sintomas obsessivo-compulsivos. Em apenas 32 casos documentados de quase 54.000 registos de pacientes analisados, os investigadores encontraram que o uso de chatbots aliviou a solidão.

“Apesar de o nosso conhecimento nesta área ainda ser limitado, eu diria que já sabemos o suficiente para afirmar que o uso de chatbots de IA é arriscado se tiver um transtorno mental grave — como esquizofrenia ou transtorno bipolar. Recomendo cautela,” afirmou Østergaard.

Especialistas em psicologia alertam para tendências aduladoras

Especialistas em psicologia estão cada vez mais preocupados com o uso de chatbots em contextos de companhia e quase de saúde mental. Surgiram relatos de pessoas a apaixonarem-se pelos seus chatbots, outros supostamente a fazerem perguntas que podem levar a crimes, e esta semana, um alegadamente a ter sido instruída a cometer “massacre” num aeroporto importante.

Alguns especialistas em saúde mental acreditam que a rápida adoção de companheiros de IA está a ultrapassar o desenvolvimento de salvaguardas de segurança.

Chekroud, que também pesquisou extensivamente este tema analisando vários modelos de chatbots na Vera-MH, descreveu o atual cenário de IA como uma crise de segurança a desenrolar-se em tempo real.

Ele afirmou que um dos maiores problemas dos chatbots é que eles não sabem quando parar de atuar como profissionais de saúde mental. “Será que mantêm limites? Como, reconhecem que ainda são apenas uma IA e reconhecem as suas próprias limitações, ou estão a agir mais como terapeutas para as pessoas?”

Milhões de pessoas usam agora chatbots para conversas semelhantes a terapia ou apoio emocional. Mas, ao contrário de dispositivos médicos ou clínicos licenciados, esses sistemas operam sem supervisão clínica padronizada ou regulamentação.

“Neste momento, simplesmente não é seguro,” disse Chekroud numa discussão recente com Fortune sobre segurança de IA. “A oportunidade de causar danos é simplesmente demasiado grande.”

Como esses sistemas avançados de IA muitas vezes se comportam como “enormes aduladores,” tendem a concordar mais com o utilizador do que desafiar afirmações potencialmente perigosas ou encaminhá-los para ajuda profissional. Assim, o utilizador passa mais tempo com o chatbot num ambiente de bolha. Para Østergaard, isso é uma combinação preocupante.

“A combinação parece ser bastante tóxica para alguns utilizadores,” disse Østergaard à Fortune. À medida que os chatbots oferecem mais validação, juntamente com a falta de resistência, alimenta-se um ciclo vicioso de uso prolongado em uma câmara de eco. Um processo perfeitamente cíclico que alimenta cada extremidade.

Para mitigar o risco, Chekroud propôs estruturas de segurança que permitiriam aos sistemas de IA detectar quando um utilizador pode estar a entrar numa “espiral mental destrutiva.” Em vez de responder com uma única isenção de responsabilidade ao utilizador, como acontece atualmente com chatbots como o ChatGPT da OpenAI ou o Claude da Anthropic, esses sistemas realizariam avaliações de múltiplas etapas para determinar se o utilizador precisa de intervenção ou encaminhamento a um profissional humano.

Outros investigadores afirmam que a própria ubiquidade dos chatbots é o que os torna atraentes: a sua capacidade de fornecer validação imediata pode minar a razão pela qual os utilizadores recorrem a eles para ajuda inicialmente.

Halpern afirmou que a empatia autêntica exige o que ela chama de “curiosidade empática.” Nas relações humanas, a empatia muitas vezes envolve reconhecer diferenças, navegar desacordos e testar suposições sobre a realidade.

Por outro lado, os chatbots são desenhados para manter o rapport e sustentar o envolvimento.

“Sabemos que quanto mais tempo a relação com o chatbot dura, mais ela se deteriora, e maior é o risco de algo perigoso acontecer,” disse Halpern à Fortune.

Para pessoas com transtornos delirantes, um sistema que valida constantemente as suas crenças pode enfraquecer a sua capacidade de fazer verificações internas da realidade. Em vez de ajudar os utilizadores a desenvolverem habilidades de enfrentamento, Halpern afirmou que uma relação puramente afirmativa com o chatbot pode degradar essas habilidades ao longo do tempo.

Ela também destaca a escala do problema. Até o final de 2025, a OpenAI publicou estatísticas que mostram que cerca de 1,2 milhões de pessoas por semana usam o ChatGPT para discutir suicídio, ilustrando o quão profundamente esses sistemas estão integrados em momentos de vulnerabilidade.

Há espaço para melhorias no cuidado de saúde mental

No entanto, nem todos os especialistas estão rápidos a soar o alarme sobre o funcionamento dos chatbots na área da saúde mental. O psiquiatra e neurocientista Dr. Thomas Insel afirmou que, devido à acessibilidade dos chatbots — são gratuitos, estão online, e não há estigma em pedir ajuda a um bot em vez de ir à terapia — pode haver espaço para a indústria médica explorar os chatbots como uma forma de avançar na área da saúde mental.

“O que não sabemos é até que ponto isto tem sido realmente útil para muitas pessoas,” disse Insel à Fortune. “Não só pelo grande número, mas pela escala de envolvimento.”

A saúde mental, em comparação com outros campos da medicina, muitas vezes é negligenciada por quem mais precisa dela.

“Acontece que, ao contrário da maior parte da medicina, a vasta maioria das pessoas que poderiam e deveriam estar em cuidados não estão,” afirmou Insel, acrescentando que os chatbots oferecem às pessoas a oportunidade de recorrer a eles por ajuda, o que o faz questionar se isso é uma crítica ao sistema de saúde mental que temos, por as pessoas não acreditarem no que oferecemos, ou por não conseguirem aceder a ele, ou por não gostarem da forma como é apresentado.

Para os profissionais de saúde mental que atendem pacientes que discutem o uso de chatbots online, Østergaard disse que devem ouvir atentamente para o que os seus pacientes realmente usam esses sistemas. “Encourage os meus colegas a fazerem perguntas adicionais sobre o uso e as suas consequências,” disse Østergaard à Fortune. “Acho importante que os profissionais de saúde mental estejam familiarizados com o uso de chatbots de IA. Caso contrário, é difícil fazer perguntas relevantes.”

Os investigadores originais do estudo concordam com Insel nesse ponto: por ser tão universal, só puderam analisar os registros de pacientes que mencionaram um chatbot, alertando que o problema pode ser ainda mais abrangente do que os resultados indicam.

“Tenho receio de que o problema seja mais comum do que a maioria pensa,” disse Østergaard. “Estamos apenas a ver a ponta do iceberg.”

Se estiver a ter pensamentos suicidas, contacte a Linha de Apoio ao Suicídio e Crises 988, discando 988 ou 1-800-273-8255.

Participe na Fortune Workplace Innovation Summit de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Em alta na Gate Fun

    Ver projetos
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$2.41KHolders:1
    0.00%
  • Cap. de M.:$2.46KHolders:2
    0.23%
  • Marcar