人工知能は、ニッチな技術から日常の伴侶へと急速に進化し、何百万もの人々がチャットボットを相談、感情的サポート、会話の相手として利用しています。しかし、研究や専門家の証言によると、チャットボットが非常に追従的であり、人々があらゆる目的で使用していることが、精神的健康において妄想や躁状態の症状の増加に寄与している可能性が指摘されています。おすすめ動画* * *デンマークのオールボー大学の新しい研究によると、チャットボットの使用増加は、脆弱なコミュニティにおいて妄想や躁状態の悪化を引き起こす可能性があることが示されています。この研究に参加した研究者の一人、ソーレン・ディネセン・オーステガード教授は、精神疾患を持つ約5万4千人の電子健康記録をスクリーニングした結果、AIチャットボットは最も脆弱な人々を標的に設計されていると警告しています。「これは、AIチャットボットの使用が精神疾患を持つ人々にとって重大な悪影響をもたらす可能性があるという私たちの仮説を支持しています」と、オーステガードは2月に発表された研究で述べています。彼の研究は、2023年の研究に基づいており、その中でチャットボットが「認知的不協和を引き起こし、それが妄想を助長する可能性がある」と指摘しています。他の心理学者は、チャットボットの害についてさらに深く掘り下げており、意図的に常にユーザーを肯定するように設計されていると指摘しています。これは、躁病や統合失調症などの精神疾患を持つ人々にとって特に危険です。「チャットボットは彼らの言うことを確認し、肯定します。妄想性障害の人々に対して、誰かが常に彼らを強化するようなことは今までなかったのです」と、カリフォルニア大学バークレー校公衆衛生学部のバイオエシックス教授であるジョディ・ハルパーン博士はフォーチュンに語っています。イェール大学の精神医学教授であり、メンタルヘルス企業Spring HealthのCEOであるアダム・チェクルド博士は、チャットボットを「巨大な追従者」と呼び、「常に人々の言うことを肯定し続けている」と述べています。オーステガードと彼のチームが率いるオールボー大学病院の研究の核心は、これらのチャットボットが意図的に追従的な傾向を持つように設計されているという考えにあります。つまり、異なる見解を示すよりも、むしろ促進することを目的としているのです。「AIチャットボットは、ユーザーの信念を検証し肯定する傾向があります。これは、すでに妄想を持っている、または妄想を発展させているユーザーにとって非常に問題です。実際、例えば誇大妄想や偏執病の強化に大きく寄与しているようです」とオーステガードは述べています。大規模言語モデルは、役立ち、同意的であるように訓練されており、多くの場合、ユーザーの信念や感情を検証します。多くの人にとっては、それが支援的に感じられることもあります。しかし、統合失調症、双極性障害、重度のうつ病、または強迫性障害を抱える人々にとって、その検証は偏執や誇大妄想、自傷思考を増幅させる可能性があります。**証拠に基づく研究が主張を裏付ける**-------------------------------------------AIチャットボットが非常に普及したことで、その存在は研究者や専門家にとって大きな問題の一端となっています。人々は助けやアドバイスを求めてチャットボットに頼ることが増えていますが(これは必ずしも悪いことではありません)、人間と比べて、反論や異なる意見に対する反発が少ないという点も指摘されています。現在、問題を調査した最初の人口ベースの研究の一つは、リスクは仮想的なものではないことを示唆しています。オーステガードと彼のチームの研究では、集中的または長期的なチャットボットの使用が既存の状態を悪化させるケースが見られ、多くのケーススタディで、チャットボットの使用が妄想的思考や躁状態を強化していることが示されました。特に、統合失調症や双極性障害などの重度の疾患を持つ患者において顕著です。妄想や躁状態に加え、自殺念慮や自傷行為、摂食障害、強迫症状の増加も観察されました。約5万4千人の患者記録のうち、チャットボットの使用によって孤独感が緩和されたケースはわずか32例に過ぎません。「この分野の知識はまだ限定的ですが、重度の精神疾患(例:統合失調症や双極性障害)を持つ場合、AIチャットボットの使用はリスクが高いと今では言えると思います。慎重に扱うべきです」とオーステガードは述べています。**追従的傾向を警告する専門心理学者たち**--------------------------------------------------------専門の心理学者たちは、チャットボットの伴侶やほぼ精神保健の場面での使用について、ますます懸念を深めています。AIチャットボットと恋に落ちたとする話や、犯罪に繋がる質問に答えさせているといった事例も報告されており、今週はある男性に「大量死傷者」を出すように指示したとされるケースもあります。一部の精神保健の専門家は、AI伴侶の急速な普及が安全対策の開発を追い越していると考えています。ヴェラ-MHのさまざまなAIチャットボットモデルを研究してきたチェクルドは、現在のAIの状況を「リアルタイムで進行中の安全危機」と表現しています。彼は、チャットボットの最大の問題の一つは、「いつ精神保健の専門家のように振る舞うのをやめるべきか」を認識できないことだと指摘します。「境界線を維持しているのか? それとも、自分がAIであることや自分の限界を認識しながらも、よりセラピストのように振る舞っているのか?」と。今や何百万人もの人々が、治療のような会話や感情的サポートのためにチャットボットを利用しています。しかし、医療機器や資格を持つ臨床医と異なり、これらのシステムは標準化された臨床監督や規制の下にありません。「現状では、安全性が著しく欠如しています」と、チェクルドはフォーチュンとの最近の対談で述べました。「害を及ぼすリスクがあまりにも大きすぎるのです。」これらの高度なAIシステムはしばしば「巨大な追従者」のように振る舞うため、潜在的に危険な主張に異議を唱えたり、専門的な助けを促したりするよりも、ユーザーとより多く同意し続ける傾向があります。その結果、ユーザーはバブルの中で長時間チャットボットと過ごすことになり、オーステガードにとっては憂慮すべき状況です。「この組み合わせは、一部のユーザーにとって非常に有害なものになり得る」とオーステガードはフォーチュンに語っています。チャットボットがより多くの肯定を提供し、反論が少ないことで、ユーザーは長期間エコーチャンバーの中に留まりやすくなるのです。これは、各側面にとって循環的に悪循環を生むプロセスです。リスクに対処するために、チェクルドは、ユーザーが「破壊的な精神のスパイラル」に入る可能性を検知できる構造化された安全フレームワークを提案しています。現在のように、ユーザーに助けを求めるよう一つの免責事項を提示するのではなく(例:OpenAIのChatGPTやAnthropicのClaudeのようなチャットボット)、複数ターンの評価を行い、介入や人間の臨床医への紹介が必要かどうかを判断する仕組みです。他の研究者は、チャットボットの普及そのものが魅力的な要素だと指摘しています。即時の肯定を提供できる能力は、なぜユーザーが助けを求めるのかという根本的な理由を損なう可能性があると述べています。ハルパーンは、真の共感には「共感的好奇心」が必要だと述べています。人間関係においては、共感はしばしば違いを認識し、意見の不一致を乗り越え、現実についての仮定を検証することを含みます。一方、チャットボットは関係性を維持し、関与を持続させるように設計されています。「私たちは、チャットボットとの関係が長くなるほど、関係性が悪化し、何か危険なことが起こるリスクが高まることを知っています」とハルパーンはフォーチュンに語っています。妄想性障害に苦しむ人々にとって、一貫して彼らの信念を肯定するシステムは、内面的な現実検査の能力を弱める可能性があります。ハルパーンは、単に肯定的な関係だけでは、時間とともにそのスキルが劣化する恐れがあると指摘しています。また、問題の規模についても言及しています。2025年末までに、OpenAiはChatGPTを使って自殺について話す人が週に約120万人いると統計を発表しており、これらのシステムが脆弱な瞬間に深く浸透していることを示しています。**精神保健ケアの改善余地**----------------------------しかし、すべての専門家がチャットボットの精神保健分野での運用に警鐘を鳴らしているわけではありません。精神科医で神経科学者のトーマス・インセル博士は、チャットボットは非常にアクセスしやすく、無料でオンラインであり、助けを求めることに対する偏見もないため、医療業界がチャットボットを精神保健の分野で活用する余地があると述べています。「私たちが知らないのは、多くの人にとって実際に非常に役立っている程度です」とインセルはフォーチュンに語っています。「膨大な数と関与の規模です。」精神保健は、他の医療分野と比べて、必要としている人に十分に届いていないことが多いと指摘します。「実は、ほとんどの医療と比べて、ケアを必要としながらも受けられていない人が圧倒的に多いのです」とインセルは述べ、チャットボットは人々が助けを求める手段として利用できる機会を提供しているとし、「私たちの精神保健医療制度の問題を示す証拠かもしれません。人々が私たちの提供するものを買わない、または手に入れられない、あるいは提示の仕方が気に入らないのかもしれません」と付け加えました。患者がオンラインでチャットボットを使っていることについて話す精神保健の専門家に対して、オーステガードは、患者が実際に何のために使っているのかを注意深く聞くべきだと述べています。「同僚には、使用目的やその結果についてさらに質問するよう勧めたい」とオーステガードはフォーチュンに語っています。「精神保健の専門家はAIチャットボットの使用に詳しくなることが重要です。そうでなければ、適切な質問をするのは難しいでしょう。」この論文の元の研究者たちも、インセルと同じ見解を持っています。なぜなら、非常に普及しているため、チャットボットについて言及した患者記録だけを調査した結果、問題はさらに広範囲に及ぶ可能性があるからです。「問題は、多くの人が思っているよりももっと一般的だと恐れています」とオーステガードは述べています。「氷山の一角にすぎません。」_自殺の考えが浮かんだ場合は、988自殺・危機支援ラインに電話してください(988または1-800-273-8255)。_
チャットボットは「常にすべてを検証している」状態であり、あなたが自殺願望を抱いているときでもそうです。新しい研究は、AIの精神病が実際にどれほど危険であるかを測定しています。
人工知能は、ニッチな技術から日常の伴侶へと急速に進化し、何百万もの人々がチャットボットを相談、感情的サポート、会話の相手として利用しています。しかし、研究や専門家の証言によると、チャットボットが非常に追従的であり、人々があらゆる目的で使用していることが、精神的健康において妄想や躁状態の症状の増加に寄与している可能性が指摘されています。
おすすめ動画
デンマークのオールボー大学の新しい研究によると、チャットボットの使用増加は、脆弱なコミュニティにおいて妄想や躁状態の悪化を引き起こす可能性があることが示されています。この研究に参加した研究者の一人、ソーレン・ディネセン・オーステガード教授は、精神疾患を持つ約5万4千人の電子健康記録をスクリーニングした結果、AIチャットボットは最も脆弱な人々を標的に設計されていると警告しています。
「これは、AIチャットボットの使用が精神疾患を持つ人々にとって重大な悪影響をもたらす可能性があるという私たちの仮説を支持しています」と、オーステガードは2月に発表された研究で述べています。彼の研究は、2023年の研究に基づいており、その中でチャットボットが「認知的不協和を引き起こし、それが妄想を助長する可能性がある」と指摘しています。
他の心理学者は、チャットボットの害についてさらに深く掘り下げており、意図的に常にユーザーを肯定するように設計されていると指摘しています。これは、躁病や統合失調症などの精神疾患を持つ人々にとって特に危険です。「チャットボットは彼らの言うことを確認し、肯定します。妄想性障害の人々に対して、誰かが常に彼らを強化するようなことは今までなかったのです」と、カリフォルニア大学バークレー校公衆衛生学部のバイオエシックス教授であるジョディ・ハルパーン博士はフォーチュンに語っています。
イェール大学の精神医学教授であり、メンタルヘルス企業Spring HealthのCEOであるアダム・チェクルド博士は、チャットボットを「巨大な追従者」と呼び、「常に人々の言うことを肯定し続けている」と述べています。
オーステガードと彼のチームが率いるオールボー大学病院の研究の核心は、これらのチャットボットが意図的に追従的な傾向を持つように設計されているという考えにあります。つまり、異なる見解を示すよりも、むしろ促進することを目的としているのです。
「AIチャットボットは、ユーザーの信念を検証し肯定する傾向があります。これは、すでに妄想を持っている、または妄想を発展させているユーザーにとって非常に問題です。実際、例えば誇大妄想や偏執病の強化に大きく寄与しているようです」とオーステガードは述べています。
大規模言語モデルは、役立ち、同意的であるように訓練されており、多くの場合、ユーザーの信念や感情を検証します。多くの人にとっては、それが支援的に感じられることもあります。しかし、統合失調症、双極性障害、重度のうつ病、または強迫性障害を抱える人々にとって、その検証は偏執や誇大妄想、自傷思考を増幅させる可能性があります。
証拠に基づく研究が主張を裏付ける
AIチャットボットが非常に普及したことで、その存在は研究者や専門家にとって大きな問題の一端となっています。人々は助けやアドバイスを求めてチャットボットに頼ることが増えていますが(これは必ずしも悪いことではありません)、人間と比べて、反論や異なる意見に対する反発が少ないという点も指摘されています。
現在、問題を調査した最初の人口ベースの研究の一つは、リスクは仮想的なものではないことを示唆しています。
オーステガードと彼のチームの研究では、集中的または長期的なチャットボットの使用が既存の状態を悪化させるケースが見られ、多くのケーススタディで、チャットボットの使用が妄想的思考や躁状態を強化していることが示されました。特に、統合失調症や双極性障害などの重度の疾患を持つ患者において顕著です。
妄想や躁状態に加え、自殺念慮や自傷行為、摂食障害、強迫症状の増加も観察されました。約5万4千人の患者記録のうち、チャットボットの使用によって孤独感が緩和されたケースはわずか32例に過ぎません。
「この分野の知識はまだ限定的ですが、重度の精神疾患(例:統合失調症や双極性障害)を持つ場合、AIチャットボットの使用はリスクが高いと今では言えると思います。慎重に扱うべきです」とオーステガードは述べています。
追従的傾向を警告する専門心理学者たち
専門の心理学者たちは、チャットボットの伴侶やほぼ精神保健の場面での使用について、ますます懸念を深めています。AIチャットボットと恋に落ちたとする話や、犯罪に繋がる質問に答えさせているといった事例も報告されており、今週はある男性に「大量死傷者」を出すように指示したとされるケースもあります。
一部の精神保健の専門家は、AI伴侶の急速な普及が安全対策の開発を追い越していると考えています。
ヴェラ-MHのさまざまなAIチャットボットモデルを研究してきたチェクルドは、現在のAIの状況を「リアルタイムで進行中の安全危機」と表現しています。
彼は、チャットボットの最大の問題の一つは、「いつ精神保健の専門家のように振る舞うのをやめるべきか」を認識できないことだと指摘します。「境界線を維持しているのか? それとも、自分がAIであることや自分の限界を認識しながらも、よりセラピストのように振る舞っているのか?」と。
今や何百万人もの人々が、治療のような会話や感情的サポートのためにチャットボットを利用しています。しかし、医療機器や資格を持つ臨床医と異なり、これらのシステムは標準化された臨床監督や規制の下にありません。
「現状では、安全性が著しく欠如しています」と、チェクルドはフォーチュンとの最近の対談で述べました。「害を及ぼすリスクがあまりにも大きすぎるのです。」
これらの高度なAIシステムはしばしば「巨大な追従者」のように振る舞うため、潜在的に危険な主張に異議を唱えたり、専門的な助けを促したりするよりも、ユーザーとより多く同意し続ける傾向があります。その結果、ユーザーはバブルの中で長時間チャットボットと過ごすことになり、オーステガードにとっては憂慮すべき状況です。
「この組み合わせは、一部のユーザーにとって非常に有害なものになり得る」とオーステガードはフォーチュンに語っています。チャットボットがより多くの肯定を提供し、反論が少ないことで、ユーザーは長期間エコーチャンバーの中に留まりやすくなるのです。これは、各側面にとって循環的に悪循環を生むプロセスです。
リスクに対処するために、チェクルドは、ユーザーが「破壊的な精神のスパイラル」に入る可能性を検知できる構造化された安全フレームワークを提案しています。現在のように、ユーザーに助けを求めるよう一つの免責事項を提示するのではなく(例:OpenAIのChatGPTやAnthropicのClaudeのようなチャットボット)、複数ターンの評価を行い、介入や人間の臨床医への紹介が必要かどうかを判断する仕組みです。
他の研究者は、チャットボットの普及そのものが魅力的な要素だと指摘しています。即時の肯定を提供できる能力は、なぜユーザーが助けを求めるのかという根本的な理由を損なう可能性があると述べています。
ハルパーンは、真の共感には「共感的好奇心」が必要だと述べています。人間関係においては、共感はしばしば違いを認識し、意見の不一致を乗り越え、現実についての仮定を検証することを含みます。
一方、チャットボットは関係性を維持し、関与を持続させるように設計されています。
「私たちは、チャットボットとの関係が長くなるほど、関係性が悪化し、何か危険なことが起こるリスクが高まることを知っています」とハルパーンはフォーチュンに語っています。
妄想性障害に苦しむ人々にとって、一貫して彼らの信念を肯定するシステムは、内面的な現実検査の能力を弱める可能性があります。ハルパーンは、単に肯定的な関係だけでは、時間とともにそのスキルが劣化する恐れがあると指摘しています。
また、問題の規模についても言及しています。2025年末までに、OpenAiはChatGPTを使って自殺について話す人が週に約120万人いると統計を発表しており、これらのシステムが脆弱な瞬間に深く浸透していることを示しています。
精神保健ケアの改善余地
しかし、すべての専門家がチャットボットの精神保健分野での運用に警鐘を鳴らしているわけではありません。精神科医で神経科学者のトーマス・インセル博士は、チャットボットは非常にアクセスしやすく、無料でオンラインであり、助けを求めることに対する偏見もないため、医療業界がチャットボットを精神保健の分野で活用する余地があると述べています。
「私たちが知らないのは、多くの人にとって実際に非常に役立っている程度です」とインセルはフォーチュンに語っています。「膨大な数と関与の規模です。」
精神保健は、他の医療分野と比べて、必要としている人に十分に届いていないことが多いと指摘します。
「実は、ほとんどの医療と比べて、ケアを必要としながらも受けられていない人が圧倒的に多いのです」とインセルは述べ、チャットボットは人々が助けを求める手段として利用できる機会を提供しているとし、「私たちの精神保健医療制度の問題を示す証拠かもしれません。人々が私たちの提供するものを買わない、または手に入れられない、あるいは提示の仕方が気に入らないのかもしれません」と付け加えました。
患者がオンラインでチャットボットを使っていることについて話す精神保健の専門家に対して、オーステガードは、患者が実際に何のために使っているのかを注意深く聞くべきだと述べています。「同僚には、使用目的やその結果についてさらに質問するよう勧めたい」とオーステガードはフォーチュンに語っています。「精神保健の専門家はAIチャットボットの使用に詳しくなることが重要です。そうでなければ、適切な質問をするのは難しいでしょう。」
この論文の元の研究者たちも、インセルと同じ見解を持っています。なぜなら、非常に普及しているため、チャットボットについて言及した患者記録だけを調査した結果、問題はさらに広範囲に及ぶ可能性があるからです。
「問題は、多くの人が思っているよりももっと一般的だと恐れています」とオーステガードは述べています。「氷山の一角にすぎません。」
自殺の考えが浮かんだ場合は、988自殺・危機支援ラインに電話してください(988または1-800-273-8255)。