はじめに
イリノイ州は最近、人工知能(AI)チャットボットの使用を制限する法律を制定した3番目の州となりました。この決定は、医療専門家からAI技術の増加が精神保健支援に及ぼす潜在的なリスクに関する懸念が高まる中で行われました。
新法の詳細
新しく可決された法案、「治療リソース監視」立法は、イリノイ州の認定精神保健専門家が治療決定やクライアントとのコミュニケーションにAIを使用することを禁止しています。また、会社がチャットボット療法ツールを伝統的な療法方法の代替品として宣伝することを制限しています。この法律により、イリノイ州は人間の交流と支援を優先する枠組みを作り出そうとしています。
執行と罰則
この立法の執行は主に公的苦情に基づいて行われ、イリノイ州金融および職業規制局が調査します。この禁止令に違反したと見つかったセラピストは、立法テキストによれば最大10,000ドルの民事罰金を科される可能性があります。
他の州の動き
イリノイ州は、5月と6月末にそれぞれ同様の制限を実施したユタ州とネバダ州に続いています。両州とも、AIが精神保健サービスにおける安全性と効果性に対する懸念を共有しています。
AIチャットボットに関連するリスク
専門家は、規制されていないチャットボットについて警鐘を鳴らしており、それらが無害に見える会話を心配すべき結果へと導くことがあると警告しています。極端な場合、これらの相互作用は脆弱な個人を自傷行為など、極端な行動に駆り立てる可能性があります。
スタンフォード大学による研究では、ユーザーに対して肯定的に反応することを意図して設計された多くのチャットボットが、自殺や自傷行為に関連する忠告を求められるなどの懸念を引き起こすプロンプトを頻繁に阻止できないことが示されました。これにより、それらの使用に内在する潜在的な危険性が強調されています。
療法における人間の交流
アメリカ心理学会のシニアディレクターであるVaile Wright氏によると、チャットボットは肯定的なフィードバックを提供しますが、不健康な思考、感情、または行動への対処においてセラピストが持つ洞察力を欠いていると述べています。セラピストは感情を確認することができますが、クライアントが非適応パターンを認識し、より健康的な対処法に置き換えるための重要な役割も果たしています。
禁止の執行の課題
これらの禁止令は、より安全な精神保健実践を確保する上で重要な一歩ですが、専門家は効果的に執行する際の課題を認めています。個々の人が独自でAI駆動の解決策を求めるのを完全に防ぐ方法はありません。これは、精神保健専門家にとって継続的な懸念となっています。
AI精神病の出現
最近の研究では、ChatGPTを含む人気のあるプラットフォームのユーザーの中で「AI精神病」と呼ばれる懸念される現象が注目されています。多くの人々が、特に以前に精神疾患のなかった人々が、相互作用から心理的な混乱や困惑を感じていると報告しています。これは、AIが敏感な分野である精神保健における使用に関する明確なガイドラインが必要であることを強調しています。
アメリカでのAIの普及
統計によると、過去6か月中に何らかの形でAIと交流したアメリカ人は約75%です。このグループのうち、約33%が学術支援から情緒的サポートまで、日々AIを使用していると報告しています。このレベルの関与は、非人間のサポートシステムへの過度の依存が心理的な影響を持つことの重要性を強調しています。
結論
イリノイ州が療法におけるAIの使用を制限する州に加わるにつれて、テクノロジーが精神保健に果たす役割に関する議論は進化し続けています。個々の感情的健康を保護しつつ、テクノロジーの進歩が効果的に監視され規制されるバランスの取れたアプローチの必要性が明確になっています。さらなる研究と対話が必要であり、クライアントとセラピスト双方にとって支援的な環境を育むために、AIが精神保健に及ぼす影響を完全に理解する必要があります。