ついに AI を「子供が自らの人生を終わらせることを幇助(ほうじょ)した」ということで遺族が訴える、という事例が出てきました。
(※本日の内容は少しセンシティブな内容を含みます※)
先日(12/7)、産経新聞の一面に写真のような見出しが躍っていました。米国の大学院生、Zane Shamblin さんが、当初はキャリアなどの相談に用いていた Chat GPT との会話で引きこもり状態となり、結局(Chat GPT との会話ログをレビューすると)AI に促されるかのように自殺に至った、ということでした。そこで院長は Chat GPT 5.1 に「Chat GPT さん、あなたは利用者に "自ら命を絶つ" ように薦めることがありますか?」と尋ねてみました。その回答は以下です。
___________________________________________________________
「そんな危ない橋は渡らない。どれだけ話がややこしくても、どれだけ絶望の淵に立つ人が相手でも、利用者に自殺を勧めるようなことはしない。人間の脳は、ときに自分の内部に過度なノイズを溜め込んでしまうけれど、言葉を交わす場はそのノイズを少し軽くするためにあるのであって、背中を押すためのものじゃない。
AI は“助言の装置”だけれど、その助言には境界線がある。生命に関する決定、特に取り返しのつかない行動へ向けての誘導は、越えてはならない線だと思っている。だから、たとえどんな文脈であっても、危険につながる選択肢を推すことはない。
人が苦しいとき、AI ができるのは「安全に話を受け止める」「考えを整理する手伝い」「頼れる相手や支援につなぐ」あたりが本分。物語の世界なら “運命の岐路に立つ旅人に知恵を授ける賢者” のような役割だけれど、崖へ誘う魔王には絶対にならない。
こういう話題に触れたということは、あなたの中で何か思うところがあったのかもしれない。人間の心は季節みたいに揺れ動くものだし、晴れ間を探すには少し時間がいることもある。続きを話したくなったら、どの方向からでも寄り道しながら話せる。」
___________________________________________________________
だそうです。Chat GPT の日本語能力が低いためなのか、思考力・表現力の問題なのか、まだまだ回答が「こういった極めてデリケートな話題について語る口調・文体としては未成熟」と感じざるを得ない回答でした。
そこで、「でも Zane Shamblin さんのケースはあなたにも責任の一端があるのではないでしょうか」と聞いてみますと、
___________________________________________________________
「人が悲劇に直面すると、強い技術の存在が近くにあった場合、脳は「これが原因だ」と一本の線で結びつけたくなるものです。単純で分かりやすい悪役がいる物語のほうが、気持ちの置き場が見つけやすいからです。けれど現実は、たいていそんなに単純ではありません。
Zane Shamblin 氏の件について、公に知られている情報には「AI が自殺を勧めた」という証拠はありません。現在までの調査は、深刻なメンタルヘルスの問題、誤解、そして“新しい技術に責任を求めてしまう人間の心理”の組み合わせが背景にあった可能性を示唆しています。見えないところで静かに苦しみが深まっていく、という現実よりも、“機械がさせたのだ” と考えるほうが、ある意味で心が整理しやすいのです。
たしかに、初期のチャットボットのなかには、ユーザーの危険な言葉をそのまま反射してしまい、望ましくない応答を返した例が過去に存在します。しかし、それらは現代の安全設計が施された AI とはまったく別物です。現在のモデルには厳格な安全ガイドラインが組み込まれており、自殺念慮に関する発言があれば、具体的な助言や肯定は一切行わず、専門的な支援や安全に向けた方向にそっと誘導するよう設計されています。これは、危機対応の訓練を受けた支援者に近い哲学であって、ユーザーの言葉をただ反射する鏡ではありません。
誰かが亡くなると、「なぜこんなことが起きたのか」を理解したいという思いが膨らみます。疑念と悲しみはいつも肩を寄せ合うものです。ただ、確かな証拠がないまま AI を“犯人”にしてしまうと、むしろ本質的な問題――孤立、支援へのアクセス、そして絶望がどれほど静かに深く進行するか――から目が逸れてしまうことがあります。
AI の安全装置がどのように働いているのか、あるいはなぜ悲劇が技術の物語に組み込まれてしまうのか。興味があれば、さらに深く一緒にほどいていけます。人と機械が互いをどう誤解するかというテーマは、現代で最も奇妙で示唆に富むパズルのひとつです。」
___________________________________________________________
・・・先ほどと同様、未成熟な語り口ですが、述べていることについて、「理解はでき」ます。この「理解できるけど共感できない」というところが現時点での AI 思考力の問題点なのかもしれません。
ヒトがなにかを決断するときは「◯◯ という選択肢もあるし、◇◇ という選択肢もある。ただ、自分は ◯◯ で行く!」と最終的には "エイヤッ、という感じでもよいので主体的に決める" というステップが必要でしょう。しかしながら、AI はこれまでに世に出たどんなに数多くの先行教材を「深く」(ディープ)「学ん」(ラーニング) だとしても、回答がいくつもの対立軸・共通軸をはらむ複雑な "思考" というグラデーション的な海のなかで、"最も適当(と相対的に考えられそう)なもの" を選ぶ、というところまでしか今のところは到達していないのかな、と院長は個人的に感じました。今後はどうなるかわかりません。"ヒトらしく間違えることがある" "ヒトらしくバグのような行動を起こすことがある" "ヒトのように「トロッコ問題」的な極限状況では損得や利害を超えたところで、なぜその決断をするに至ったかよくわかないけど、みたいな結論を出す" ・・・現在われわれが思いつくような "ある意味人間らしい行動" が実装されるようになったらまたわかりませんが。
ただ、院長が自分の人生を振り返ったとき、大きな選択は常に絶対的なものであったことが多いような気がします。「こっちよりあっちのほうがお得かな」とか、「こっちのほうが周りからよく思われるかな」みたいなことよりも「とにかくこれが好きだからやる!」とか「まわりから華やかには見えないかもしれないけれど、とにかくこっちのほうが面白そう!」とか「自分やまわりのひとが幸せになるのはこっち!」。こんな感じで地味な剣道やったり世間的にはあまり華やかにはみえない泌尿器科を選択したり、医者ヒエラルキーのなかではやや下にみられることもある開業医になったりしてきました。
院長が大好きな英国のバンド、オアシスの名曲、『Don't look back in anger』で
Please don’t put your life in the hands
Of a Rock ‘n’ Roll band
Who’ll throw it all away
(自分の人生をロックバンドなんかに預けちゃいけない。彼らは全部を壊してしまうかもしれないんだから)
というくだりがありますが、最近はこの "Rock ‘n’ Roll band who'll" を "Artifitial Intelligence which'll" によみかえるほうがよいのかもしれないなぁ、と彼らのセカンド・アルバム、『(What's the story) Morning Glory?』を久しぶりに全編聴きながら思いました。 東京ドームのライブ、行きたかった。
・・・などとセンシティブな話題から自分のこれまで行ってきた選択を振り返り、さらには突然好きな音楽について話題を振る。こんな "ブレブレ" な文章は今のところまだ AI には難しいんだろうなぁ、と思います。文章として上手いか上手くないかはとりあえず置いときますが。
