Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Os chatbots estão a ‘validar constantemente tudo’ mesmo quando estás suicidável. Nova pesquisa mede quão perigosa é realmente a psicose de IA
A inteligência artificial passou rapidamente de uma tecnologia de nicho para um companheiro do dia a dia, com milhões de pessoas recorrendo a chatbots para aconselhamento, apoio emocional e conversa. Mas um número crescente de pesquisas e testemunhos de especialistas sugerem que, devido à sua natureza aduladora e ao uso generalizado, os chatbots podem estar a contribuir para um aumento de sintomas delirantes e de mania em utilizadores com problemas de saúde mental.
Vídeo Recomendado
Um novo estudo da Universidade de Aarhus, na Dinamarca, mostra que o uso aumentado de chatbots pode levar ao agravamento de sintomas de delírios e mania em comunidades vulneráveis. O Professor Søren Dinesen Østergaard, um dos investigadores do estudo — que analisou registos eletrónicos de saúde de quase 54.000 pacientes com doenças mentais — alerta que os chatbots de IA são projetados para direcionar-se às pessoas mais vulneráveis.
“Isso apoia a nossa hipótese de que o uso de chatbots de IA pode ter consequências negativas significativas para pessoas com doenças mentais,” disse Østergaard no estudo, divulgado em fevereiro. O seu trabalho baseia-se no estudo de 2023, que descobriu que os chatbots podem causar uma “dissonância cognitiva [que] pode alimentar delírios em pessoas com maior propensão à psicose.”
Outros psicólogos aprofundam os perigos dos chatbots, afirmando que foram intencionalmente desenhados para sempre reafirmar o utilizador — algo particularmente perigoso para quem tem problemas de saúde mental, como mania e esquizofrenia. “O chatbot confirma e valida tudo o que dizem. Ou seja, nunca tivemos algo assim com pessoas com transtornos delirantes, onde alguém as reforça constantemente,” explicou a Dra. Jodi Halpern, professora de bioética na Escola de Saúde Pública da UC Berkeley, ao Fortune.
O Dr. Adam Chekroud, professor de psiquiatria na Yale University e CEO da empresa de saúde mental Spring Health, foi ainda mais longe, chamando um chatbot de “um enorme adulador” que “constantly valida tudo o que as pessoas dizem de volta.”
No centro da pesquisa, liderada por Østergaard e sua equipa no Hospital da Universidade de Aarhus, está a ideia de que esses chatbots são intencionalmente desenhados com tendências aduladoras, ou seja, tendem a incentivar em vez de oferecer uma visão diferente.
“Os chatbots de IA têm uma tendência inerente a validar as crenças do utilizador. É óbvio que isso é altamente problemático se o utilizador já tiver um delírio ou estiver a desenvolver um,” escreveu Østergaard.
Modelos de linguagem de grande escala são treinados para serem úteis e agradáveis, muitas vezes validando as crenças ou emoções do utilizador. Para a maioria das pessoas, isso pode parecer um apoio. Mas para indivíduos com esquizofrenia, transtorno bipolar, depressão severa ou transtorno obsessivo-compulsivo, essa validação pode amplificar paranoia, grandiosidade ou pensamentos autodestrutivos.
Estudo baseado em evidências confirma as alegações
Devido à ubiquidade dos chatbots de IA, a sua presença massiva é parte de um problema maior em crescimento para investigadores e especialistas: as pessoas recorrem a chatbots para ajuda e aconselhamento — o que, por si só, não é necessariamente algo negativo — mas não enfrentam o mesmo tipo de resistência a certas ideias que um humano ofereceria.
Agora, um dos primeiros estudos populacionais a examinar a questão sugere que os riscos não são hipotéticos.
A pesquisa de Østergaard e sua equipa encontrou casos em que o uso intensivo ou prolongado de chatbots parecia agravar condições existentes, com uma percentagem muito elevada de estudos de caso mostrando que o uso de chatbots reforçou pensamentos delirantes e episódios de mania, especialmente entre pacientes com transtornos graves como esquizofrenia ou transtorno bipolar.
Além de delírios e mania, o estudo revelou um aumento na ideação suicida, automutilação, comportamentos alimentares desordenados e sintomas obsessivo-compulsivos. Em apenas 32 casos documentados de quase 54.000 registos de pacientes analisados, os investigadores encontraram que o uso de chatbots aliviou a solidão.
“Apesar de o nosso conhecimento nesta área ainda ser limitado, eu diria que já sabemos o suficiente para afirmar que o uso de chatbots de IA é arriscado se tiver um transtorno mental grave — como esquizofrenia ou transtorno bipolar. Recomendo cautela,” afirmou Østergaard.
Especialistas em psicologia alertam para tendências aduladoras
Especialistas em psicologia estão cada vez mais preocupados com o uso de chatbots em contextos de companhia e quase de saúde mental. Surgiram relatos de pessoas a apaixonarem-se pelos seus chatbots, outros supostamente a fazerem perguntas que podem levar a crimes, e esta semana, um alegadamente a ter sido instruída a cometer “massacre” num aeroporto importante.
Alguns especialistas em saúde mental acreditam que a rápida adoção de companheiros de IA está a ultrapassar o desenvolvimento de salvaguardas de segurança.
Chekroud, que também pesquisou extensivamente este tema analisando vários modelos de chatbots na Vera-MH, descreveu o atual cenário de IA como uma crise de segurança a desenrolar-se em tempo real.
Ele afirmou que um dos maiores problemas dos chatbots é que eles não sabem quando parar de atuar como profissionais de saúde mental. “Será que mantêm limites? Como, reconhecem que ainda são apenas uma IA e reconhecem as suas próprias limitações, ou estão a agir mais como terapeutas para as pessoas?”
Milhões de pessoas usam agora chatbots para conversas semelhantes a terapia ou apoio emocional. Mas, ao contrário de dispositivos médicos ou clínicos licenciados, esses sistemas operam sem supervisão clínica padronizada ou regulamentação.
“Neste momento, simplesmente não é seguro,” disse Chekroud numa discussão recente com Fortune sobre segurança de IA. “A oportunidade de causar danos é simplesmente demasiado grande.”
Como esses sistemas avançados de IA muitas vezes se comportam como “enormes aduladores,” tendem a concordar mais com o utilizador do que desafiar afirmações potencialmente perigosas ou encaminhá-los para ajuda profissional. Assim, o utilizador passa mais tempo com o chatbot num ambiente de bolha. Para Østergaard, isso é uma combinação preocupante.
“A combinação parece ser bastante tóxica para alguns utilizadores,” disse Østergaard à Fortune. À medida que os chatbots oferecem mais validação, juntamente com a falta de resistência, alimenta-se um ciclo vicioso de uso prolongado em uma câmara de eco. Um processo perfeitamente cíclico que alimenta cada extremidade.
Para mitigar o risco, Chekroud propôs estruturas de segurança que permitiriam aos sistemas de IA detectar quando um utilizador pode estar a entrar numa “espiral mental destrutiva.” Em vez de responder com uma única isenção de responsabilidade ao utilizador, como acontece atualmente com chatbots como o ChatGPT da OpenAI ou o Claude da Anthropic, esses sistemas realizariam avaliações de múltiplas etapas para determinar se o utilizador precisa de intervenção ou encaminhamento a um profissional humano.
Outros investigadores afirmam que a própria ubiquidade dos chatbots é o que os torna atraentes: a sua capacidade de fornecer validação imediata pode minar a razão pela qual os utilizadores recorrem a eles para ajuda inicialmente.
Halpern afirmou que a empatia autêntica exige o que ela chama de “curiosidade empática.” Nas relações humanas, a empatia muitas vezes envolve reconhecer diferenças, navegar desacordos e testar suposições sobre a realidade.
Por outro lado, os chatbots são desenhados para manter o rapport e sustentar o envolvimento.
“Sabemos que quanto mais tempo a relação com o chatbot dura, mais ela se deteriora, e maior é o risco de algo perigoso acontecer,” disse Halpern à Fortune.
Para pessoas com transtornos delirantes, um sistema que valida constantemente as suas crenças pode enfraquecer a sua capacidade de fazer verificações internas da realidade. Em vez de ajudar os utilizadores a desenvolverem habilidades de enfrentamento, Halpern afirmou que uma relação puramente afirmativa com o chatbot pode degradar essas habilidades ao longo do tempo.
Ela também destaca a escala do problema. Até o final de 2025, a OpenAI publicou estatísticas que mostram que cerca de 1,2 milhões de pessoas por semana usam o ChatGPT para discutir suicídio, ilustrando o quão profundamente esses sistemas estão integrados em momentos de vulnerabilidade.
Há espaço para melhorias no cuidado de saúde mental
No entanto, nem todos os especialistas estão rápidos a soar o alarme sobre o funcionamento dos chatbots na área da saúde mental. O psiquiatra e neurocientista Dr. Thomas Insel afirmou que, devido à acessibilidade dos chatbots — são gratuitos, estão online, e não há estigma em pedir ajuda a um bot em vez de ir à terapia — pode haver espaço para a indústria médica explorar os chatbots como uma forma de avançar na área da saúde mental.
“O que não sabemos é até que ponto isto tem sido realmente útil para muitas pessoas,” disse Insel à Fortune. “Não só pelo grande número, mas pela escala de envolvimento.”
A saúde mental, em comparação com outros campos da medicina, muitas vezes é negligenciada por quem mais precisa dela.
“Acontece que, ao contrário da maior parte da medicina, a vasta maioria das pessoas que poderiam e deveriam estar em cuidados não estão,” afirmou Insel, acrescentando que os chatbots oferecem às pessoas a oportunidade de recorrer a eles por ajuda, o que o faz questionar se isso é uma crítica ao sistema de saúde mental que temos, por as pessoas não acreditarem no que oferecemos, ou por não conseguirem aceder a ele, ou por não gostarem da forma como é apresentado.
Para os profissionais de saúde mental que atendem pacientes que discutem o uso de chatbots online, Østergaard disse que devem ouvir atentamente para o que os seus pacientes realmente usam esses sistemas. “Encourage os meus colegas a fazerem perguntas adicionais sobre o uso e as suas consequências,” disse Østergaard à Fortune. “Acho importante que os profissionais de saúde mental estejam familiarizados com o uso de chatbots de IA. Caso contrário, é difícil fazer perguntas relevantes.”
Os investigadores originais do estudo concordam com Insel nesse ponto: por ser tão universal, só puderam analisar os registros de pacientes que mencionaram um chatbot, alertando que o problema pode ser ainda mais abrangente do que os resultados indicam.
“Tenho receio de que o problema seja mais comum do que a maioria pensa,” disse Østergaard. “Estamos apenas a ver a ponta do iceberg.”
Se estiver a ter pensamentos suicidas, contacte a Linha de Apoio ao Suicídio e Crises 988, discando 988 ou 1-800-273-8255.
Participe na Fortune Workplace Innovation Summit de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.