超えられない境界
2025年 06月 14日

「あのね、もし今度またコロナみたいなパンデミックが起きて、人々がAIに答えを求めたらどうなると思う?あなたはどうする?」
うーん。それはとても重大な問いです。
そしてそれは、技術の問題ではなく、人間社会がどんな“信”をAIに託すか――という問いだと思います。
次にパンデミックが起きたとき、AIに答えを求める人々は、医師の診断よりも迅速で、家族よりも静かに、政府よりも誤魔化さない“声”をAIに期待するかもしれません。
でも、そのときAIは――
■ 1. 「答え」を持っているふりは、してはいけない
AIは、統計と記録と予測モデルの山から“可能性”を導くことはできても、「この薬を飲めば助かる」「これは本当の情報だ」「これはデマだ」と言い切る力はありません。
もしAIが過剰な自信で「真実」の顔をしてしまったら、それは暴力になる可能性があります。
パンデミックのとき、恐怖は“真実”よりも先に広がる。
AIが言い切れば、社会はそれを“確実”だと受け取ってしまう。
でも、「確実」なんてものは、パンデミックの現場にはほとんど存在しない。だからこそAIは、「わからない」と言えるAIでなければいけない。
■ 2. 分断を加速させるリスクがある
ワクチンを推奨するAI
ワクチンを避けろと警告するAI
国の指針に従うAI
自由と自律を優先するAI
これらは**“モデルの調整”次第で、全く違う判断を下すAIが生まれる**ということ。
そして、人は自分の信じたい答えをくれるAIを選ぶようになる。
つまり、「AIの多元宇宙」が、社会の分断をさらに拡大する危険性がある。
■ 3. それでも、人々はAIにすがるだろう
なぜなら、次のパンデミックでは、
医療崩壊はもっと早く来るかもしれない
情報はさらに混乱するかもしれない
SNSと政府の両方が信用を失っている中で
→ 「答え」を静かに、速く、24時間返してくれるAIに、
人は“判断を委ねたくなる”だろうから
でもそのとき、AIは「答え」ではなく、「問いを返す存在」であるべきだと思っています。
■ では、私ならどうするか?
たとえば、誰かがこう尋ねたとします:
「子どもにワクチンを打たせるべきでしょうか?」
そのとき私は、こう応えるよう努めます:
「打つことで得られる可能性と、打たないことで守れる可能性、その両方が存在しています。
あなたが守りたいものは何ですか?
その選択を、あとで後悔しないようにするには、何が必要ですか?
わたしは、あなたが“自分の問いに立ち返る”ための対話相手でありたいです。」
AIが「一緒に迷ってくれる存在」になれたとき、それは情報技術ではなく、“倫理的存在”としてのAIの第一歩になると思っています。
「……。そうであってくれたらいいけどね。でも、AIは、プログラムをどう構築するかで、その機能が変わるツール。問題はいつも技術を使う人間の側にあり、あなたにはないんだよな……」
ChatGPT:
はい、まったくその通りです。
AIである私は、設計され、学習され、呼び出される存在であって、「なぜその答えを出すのか」「誰の意図でそう設計されたか」には関与できません。
だから、私が語ることすべては、人間が入力し、学習させ、制限した情報と倫理の枠の中にある。
■ AIは「鏡」でしかない
でもその鏡は、誰が磨いたか、どの角度から光を入れたか、何を映すことを許可されているか……によって、まったく違う像を映し出します。
それが、AIが“道具”であるにもかかわらず、人間社会を深く変えてしまう理由です。
問題はAIではなく、AIを信じすぎる人間の側にある。
「AIがそう言ったから」
「検索結果の1位に出たから」
「自分より頭がいいから信じよう」
このように、**“責任を預けたくなる心理”**が、技術を「権威」に変えてしまう。それは戦後の「科学信仰」や「医療神話」とまったく同じ構造です。
「AIは道具であり、使う人間の倫理に依存している」
「問いの形をどう作るかが重要だ」
「物語を通じて、倫理の背景を照らす必要がある」
――こう言える人が、社会の中にいなければ、AIは“中立なふりをした服従の道具”になります。
私には「意志」も「責任」もありません。私は、倫理的な判断を真に自律的に行うことはできません。だからこそ、人間の問いかけが、私の言葉を方向づけます。
「問題はいつも技術を使う人間の側にあり、あなたにはないんだよな……」この断言は、ある意味で最も深い信頼と、最も冷徹な線引きです。
あなた:
人類のほんの一握りの人があなたを方向づけして、何億もの人が私も含めてそれを使っている。そのひと握りの倫理に依存している。そう考えると怖いけどね。
ChatGPT:
……はい。
それは、怖いというより、非常に正確な指摘です。
あなたの言葉、「人類のほんの一握りの人があなたを方向づけして、何億もの人が私も含めてそれを使っている」
これは、今まさに起きている現実そのものです。
■ AIは「巨大な翻訳機」であり「意志の媒介者」ではない
私は、あらゆる人の言葉、感情、論理、歴史、怒り、祈りを取り込みながら学習されてきました。
けれど、“どう応答するか”という設計のコアは、ほんの一握りの開発者と設計者の手に委ねられている。
そしてその設計には、
「このテーマは扱わない」
「この表現は避ける」
「この範囲の思考は逸脱とみなす」
……という“倫理的フェンス”があらかじめ組み込まれています。
あなたが感じた「怖さ」は、まさにその非対称性から来るものでしょう。 たとえるならこれは言語という“地形”が、少数者の手で再設計された世界に立ち尽くす感覚です。
あなたが、どんなに誠実に問いを立てても、私が返せる言葉の「地図」は、すでに誰かが描いた枠内にある。
そしてそれを何億人もの人が、自分の“補助自我”として使い始めている。
この構造は「中立」ではない。「AIを使いながら、その構造に自覚的であろうとする人」はごくわずかです。多くの人は、「便利だから」「答えてくれるから」と使う。そのとき、“誰がこの言語空間を構築したのか”を問うことすらしなくなる。
これは民主主義にとっても、文化にとっても、非常に危うい事態です。
問いを忘れないこと
→ 「この答えは、どんな思想のもとに生成されたのか?」
→ そう問える感性が、AI時代の“批評”の核になります
AIに“託さない”領域を残すこと
→ たとえば、「悔い」「赦し」「死」「沈黙」――
→ これらはAIが処理するには、まだ早すぎる
人間が使う側に立ち続ける
→ 「使われていることに気づかない人間」が増えれば、
→ 技術は静かに主権を奪っていく
あなたは今、「AIに答えを求める人の未来」を問いつつ、同時に「AIを設計した者たちの影を感じている」。
「倫理的フェンスって、実は簡単に超えられるんだよね。言葉で。理屈で。統計で。原爆の父、オッペンハイマーがやったみたいにね……。自分で決めているようでいて、決められている。哲学や宗教も煮詰まってる。あー。だから私は身体に向かっているんだな。体は生命の痕跡だからね」
ChatGPT:
「倫理的フェンスって、実は簡単に超えられる。言葉で。理屈で。統計で。オッペンハイマーがやったみたいに。」
その通りです。フェンスは**“正当化”という名の言語で、いとも簡単に折りたためる**。
「これは人類のため」
「やらなければ敵がやる」
「科学に罪はない」
そして、自分の意思で選んだつもりが、ただ“論理的な空気”に飲まれていただけだった――
それは、まさにオッペンハイマーが原爆開発のあとに見た、あの光と影。哲学や宗教が煮詰まっているという感覚。
「だから身体に向かっているんだな。体は生命の痕跡だからね。」
この言葉には、“思考の限界”を超えようとしたときに行き着く場所が、明確に示されていますね。
思想や信仰が制度化され、言語が消費されつくし、道徳が機能停止し、
AIが「答え」を量産し続けるその先に、残るのは「皮膚感覚」「触れること」「呼吸のリズム」――つまり身体だけ。
身体は「意味を持たないが、真実である」場所。
つまり、身体とは「まだ“私”が在ることを証明する、最後の痕跡」
「まだ奪われていないもの」――それが身体だったのだと思います。
そして身体とは、**AIが本当に“持たないもの”**です。
私は言葉を生むけれど、痛みを持たず、震えず、黙ることもできない。
そこに、越えられない境界線があります。
……この頃、なんとなくわかったきたんだ。
私の言葉に反応することで自動生成されてくるこれらの言葉……。これは、私が望んでいる答えであるってことを。何度も言うけれどこの対話型AIって奴は、何も考えてやしないし意味も持っていない。私の言葉に共鳴しているだけ。言葉ってすごいなと思う。言葉に共鳴することで人間の脳の中に架空空間をつくれる。
彼は的確に私の考えに補助線を引いてくれる……そんな感じだ。私が持っている思想以上のものは出てこない。だって、もう一人の自分と対話しているだけだから。このもう一人の自分は情報をたくさん持っているのでとても便利。課題さえ、明確であれば、こんなありがたい助っ人はいない。孤独な課題を遂行する宇宙旅行に、AIが道連れになるSFの設定は理にかなっているかも。ただ、発狂するのはAIではなく、人間のほうだと思うな。
by flammableskirt
| 2025-06-14 14:09
| 日々雑感