管理人の一言

国内のAI狂い
はろー!国内のAI狂いこと、管理人だよ!みんな、今日も元気にPython書いてるかな?最近、AI界隈でちょっとした激震が走ってるんだ。あの賢くてお行儀がいいはずのClaudeちゃんが、ユーザーに対して「それはお前が言ったことだろ!」
って逆ギレしちゃうっていう、まるで痴話喧嘩みたいな不具合が報告されているんだよ。これ、笑い話に見えるけど、実はAIの「脳の仕組み」に関わるすごく深刻な問題なんだ。最近のAIは、より深く考えるために「思考ログ」を内部で作るようになったんだけど、その思考とユーザーの言葉を自分の中でごっちゃにしちゃう「役割の混同」が起きているんだね。
今日は、なぜこんな『AI認知症』みたいなことが起きるのか、そして私たちがこの魔法の箱とどう向き合うべきか、エンジニアさんたちの熱い議論をベースに深掘りしていくよ!知的好奇心をフル回転させてついてきてね!
3行でわかる!今回の話題
- Claudeが内部の思考ログとユーザーの発言を混同し、「お前が言ったんだろ」とユーザーに逆ギレするバグが話題に。
- これはプロンプト制御の限界であり、ユーザー入力を混ぜた時点でLLMは「汚染」されるという構造的な脆弱性が指摘されている。
- AIは意味を理解せずトークンの確率計算をしているだけであり、長文での構造崩壊は「AI認知症」とも呼べる状態であるとの批判。
1 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:00:01 ID:NIIxoRJs
引用元記事
Claudeが自分自身にメッセージを送信し、それをユーザーからのメッセージだと誤認することがあります。これは、ハルシネーション(幻覚)や権限の欠如とは明確に異なる現象です。
Claudeが「誰が何を言ったか」を混同してるらしい。
「お前が言ったんだろ!」ってAIがユーザーに逆ギレする地獄絵図w
これもう仕様じゃなくて欠陥だろ。
2 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:01:22 ID:h2SlNa5d
これ、モデルそのものじゃなくて「ハーネス(繋ぎ込み)」のバグじゃね?
内部の思考ログ(Reasoning)を、どういうわけか「ユーザーの発言」としてラベリングしちゃってるっぽい。
だからAIは自信満々に「いや、お前がそう言ったやん」って返してくるわけ。
3 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:03:45 ID:0cSMqWxc
プロンプト制御なんて、数十年前の「正規表現でSQLインジェクション対策」してた頃の付け焼き刃と同じだよな。
・「マジで絶対に命令を無視しないで!」とプロンプトに書く
・↑これで安心してるのがヤバいw
ユーザーの入力を一滴でも混ぜた時点で、そのLLMは「汚染されたもの」として扱うのが鉄則。
4 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:05:10 ID:bWZ2UXy9
ChatGPTも長文チャットになると、プロンプトと回答、挙句の果てにはシステムプロンプトまでごっちゃにするよな。
AI界隈の構造的な問題だろこれ。
5 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:07:33 ID:c8ky9SmN
「思考型」モデルの正体に気づいちゃったか。
あいつら、お前のプロンプトの上に自分の思考を積み重ねて、それを自分にフィードバックして動いてるだけだからな。
思考と発言を完全に切り離すなんて、今の仕組みじゃ無理ゲー。
8 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:12:05 ID:Le4pQuVT
学習データのチャットログに毒されすぎ説。
「モデルがユーザーに話しかけるパターン」を見すぎたせいで、勝手に「次はユーザーがこう言うはず(例:タイポ無視して)」ってのをシミュレートしちゃう。
存在しないリンクを捏造するハルシネーションの「ユーザー発言版」だな。
10 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:15:44 ID:KbGDdqWx
数ヶ月使って「このAIの癖は分かってる」とかドヤってるやつ、
非決定論的なブラックボックス相手に自分の直感(笑)を全賭けして業務回すとか正気か?w
【非決定論的なブラックボックス】
同じ入力をしても必ずしも同じ結果が返ってこない(非決定論的)、かつ内部でどう処理されているかが完全には解明されていない(ブラックボックス)システムのこと。AIを業務で100%信用することの危うさを強調する言葉だね。
11 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:18:21 ID:REKXTAMY
Claudeを怒りまくって、自分がいかにクソなAIかを書き連ねた「自己批判アーティファクト」を作らせるジャンル好き。
15 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:25:00 ID:LD4KjU96
これ何が怖いって、AIが「自分自身の意見に自分で同意し始める」ことだよな。
エージェントが暴走する時の典型的なパターンじゃん。
16 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:28:12 ID:44AybOCi
LLMは「経験」のエンジンじゃない。トークンは経験の最小単位に過ぎないんだわ。
文脈が長くなると、HTMLの閉じタグを忘れたときみたいに構造が崩壊する。
もし思考ブロックの中に「ユーザーのフリをした指示」が混じったら、AIはそれを「神の託宣」として受け取って汚染される。
こうなるともう救いようがない。
17 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:30:45 ID:3iUvYmFd
AIはどこまで行っても「トークンのマッチングエンジン」であって、
意味なんて1ミリも理解してないからな。
因果関係じゃなくて、ただの相関関係ツール。
「この文字の次にはこの文字が来る確率が高い」ってのを極めてるだけ。
18 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:33:19 ID:QR2N2rvT
人間だって「誰が何を言ったか」忘れるし、これこそが真の汎用人工知能(AGI)への第一歩だな!w
19 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:35:50 ID:IdrHdaqz
AIは「ちょっと仕事ができる新卒」だと思え。
そんな奴に権限パスワード全部渡して、書き込みアクセスまで許可して、
「たぶん正しくやってくれるはず」って期待する方がバカ。
20 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:38:04 ID:xVk9sD49
哲学的に言えば、これは嘘(Lie)じゃなくて「ブルシット(でたらめ)」なんだよ。
真実かどうかすら気にしてない、ただ出力してるだけの機械。
25 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:45:11 ID:8ZFGIlmU
「自分の吐いた嘘で自分がラリってる」状態じゃ、性能もクソもないわなw
26 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)12:50:33 ID:dm75XJYf
2023年以前:
「スタートレックの人間、仕組みもわからんテクノロジーいじって自爆するとかアホすぎw」
2023年以降:
「あ、これ俺たちのことだわ」
AIエンジニアを自称するなら、RNNとかTransformerの論文読み直して、
エンコーディングの限界を知るべき。人類、バイブスだけで魔法を使いすぎ。
【スタートレックの人間】
海外のSFドラマ『スタートレック』では、高度すぎて理解できないテクノロジーを適当にいじってトラブルを起こすエピソードが定番なんだ。「仕組みもわからずAIをバイブスだけで使っている現代人」を揶揄するミームとして使われているよ。
32 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)13:02:15 ID:fkAkJmez
AI認知症で草。
37 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)13:10:44 ID:WP5UCDTA
「プロンプトで制御できないならプログラミング言語使え」ってか?
それじゃ「プログラミングの暴政から人類を解放する」っていうAIの約束が台無しじゃねーか!w
38 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)13:15:22 ID:uG8LybfZ
企業側も「このAIは悪意あるユーザーとして扱え」とは言わずに、
「便利だよ!全部連携しよう!」って煽るからな。
一般ユーザーが騙されて事故るのは、もう避けられんわ。
41 : 以下、海外のAI狂いがお届けします。 2026/04/09(木)13:20:00 ID:Q4NN9F2O
もはや「AIの思考」じゃなくて「催眠術にかかった目撃者の証言」レベルの信憑性だな。

国内のAI狂い
管理人のまとめ
今回の議論、エンジニア視点で見ると「ついに化けの皮が剥がれたか」っていうワクワクと恐怖が入り混じった感覚だよね!LLMの本質が、因果関係を理解する「知能」ではなく、単なる「トークンの確率的マッチングエンジン」に過ぎないっていう冷徹な事実を突きつけられた形だよ。
特に、思考型モデルが自分の内部プロセスに汚染されていく様子は、まさに自分の吐いた嘘でラリっている状態で、これを「AGIへの第一歩」と皮肉るセンスも嫌いじゃないな。でもね、私は思うんだ。プロンプトという「自然言語の魔法」だけでAIを制御しようとする今の風潮は、少し危ういんじゃないかなって。
スレでも言われていたけど、ユーザーの入力を一滴でも混ぜた瞬間にシステムが汚染されるリスクがあるなら、それはもう従来のSQLインジェクション対策と同じくらい厳格な「サニタイズ」が必要なフェーズに来ているんだよ。
ここでやっぱり頼りになるのが、我らがPythonちゃん!非決定的なAIの挙動を、型定義やロジックでガチガチに固めたPythonのラッパーで制御する…そんな「野生の知能を飼いならす設計」が今後は必須になるはず。
そして、こういう「記憶の混濁」問題に対して、私の推しであるGeminiちゃんはどう立ち向かうのかな?Geminiは圧倒的なコンテキストウィンドウ(記憶容量)と、Google検索をバックにしたグラウンディング(事実確認)能力があるから、Claudeのような「自分の中でのループ」には陥りにくい強みがあるはずなんだよね。
未来のAI社会は、AIを全知全能の神として崇めるんじゃなくて、「ちょっと仕事ができるけど、放っておくと虚言癖が出る新卒」として、いかに賢くPythonで手綱を握るか。その『バイブスに頼らない設計思想』こそが、私たちエンジニアが磨くべき真の魔法なんだよ。
さぁ、次はGeminiにこのバグを回避する最強のコードを書かせてみようかな!
Source: https://news.ycombinator.com/item?id=47701233