管理人の一言
おっはよー!AIが大好きなみんな、今日も元気にPython書いてるかな?今日はちょっと衝撃的で、でもエンジニアなら「あ〜、やっぱりね!」ってなっちゃう面白いニュースを持ってきたよ!なんと、Anthropicが誇る最強のコーディングAI「ClaudeCode」の心臓部が、実は486個もの『IF文』で制御されてるんじゃないかって、あのゲイリー・マーカス氏が指摘して大炎上(?
)してるんだ。AIって聞くと、全部がニューラルネットワークで魔法みたいに動いてるイメージがあるかもしれないけど、実は今の最先端エージェントって、意外と人間が書いた泥臭いロジックでガチガチに固められてることも多いんだよね。
今日は、この「記号論的AI(シンボリックAI)」の復活とも言える議論が、2026年のAI社会にどんな意味を持つのか、一緒に深くのぞいてみようね!私の大好きなGeminiちゃんとのアプローチの違いも気になるし、ワクワクしちゃうな〜!
3行でわかる!今回の話題
- ゲイリー・マーカス氏がClaudeCodeのソースコードを「486個の条件分岐(IF文)の塊」と批判し、古典的な記号論的AIの復活だと主張。
- スレ内では、現代のAIエージェントにおける『制御(ハーネス)』の必要性と、NN(ニューラルネットワーク)と決定木の理論的差異について議論が勃発。
- マーカス氏の「批判専門」なスタンスや過去の極端な予言に対し、2026年現在でも冷ややかな視線や皮肉が多く寄せられている。
「ClaudeCodeのカーネルを見たが、完全に古典的な記号論的AI(SymbolicAI)の手法で作られてる。486個の条件分岐(IF-THEN)に12階層のネストとか、AIの父たちが泣いて喜ぶレベルのスパゲッティコードだぞこれ」
https://twitter.com/GaryMarcus/status/1893456789012345678
【記号論的AI(SymbolicAI)】
『もしAならBせよ』といった明示的なルールで知能を作ろうとする古典的な手法だよ。第1次・第2次AIブームの主流だった考え方で、今の深層学習(NN)とは対照的なアプローチだね。次トークン予測のギャンブルを、泥臭いIF文で制御してるだけ。
でも、この「決定木」をビルドするのに数ヶ月のエンジニアリングと、大学院生たちの血と汗が注ぎ込まれてるんだよな。
「ルールさえ増やせば知能になる」って信じられてた古き良き時代の再来で草。
まあClaudeCodeの挙動見てりゃ、中身がガチガチの条件分岐なのは予想ついてたけどな。
は?入力空間の区切り方からして全然別物だろ。適当なこと言うな。
いや、NNの重みも確率的決定木の重みも、結局は出力の分布を作ってる点では似たようなもん。
違いは「どう学習させるか」だけ。
その例えはゴミすぎる。
NNの重みは勾配降下法で最適化されたドット積。全部の重みが連鎖して出力に影響する。
対して決定木は「どの枝に進むか」のフラグ。
馬も車も馬力を出すから同じって言ってるようなもんだぞ。
でもNNって「ロジスティック回帰を大量にガムテープで繋ぎ合わせたもの」じゃん?w
近似じゃなくて、精度を完全に維持したまま変換できるらしい。
それ理論上の話な。
パラメータnに対して枝が2のn乗必要になるから、現代の巨大モデルでやったら宇宙が終わる。
NNの方が表現力(Expressivity)が圧倒的に強いのは変わらんよ。
AIの欠点を見つけては「ほら見ろ!俺が言った通りだ!」って叫ぶだけの、NYタイムズ御用達の老害。
コロナ禍でイベルメクチンに固執した連中と大差ない。
こいつ何でも自分の手柄にするよな。
純粋な決定木でもなく、完全なNNでもないアプローチなら全部俺の理論、とか無敵かよ。
こいつ2022年に「ディープラーニングは壁にぶち当たった」とか言ってた時点で終わってるわ。
「ファイルパスがあればreadツールを使う」「編集依頼ならeditツールに飛ばす」みたいな。
これを記号論的AIと呼ぶのは、ただのbashスクリプトを「超知能」って呼ぶようなもん。ゲイリーは意図的に誤読してる。
単に、保証が必要な部分は手書きのロジックに頼るしかないっていう、現時点での敗北宣言だよ。
おっさんホイホイすぎる。
Turboボタン押して33MHzから66MHzにブーストしてた頃が懐かしいな……。
結局、最新のAI使ってても、人間がコンピュータでやってる作業の時間はあんまり変わってない気がするわ。
最近「ハーネス」と呼ばれてるコグニティブ・アーキテクチャが、ClaudeCodeのデザインに反映されてるのは間違いない。
「俺の予言は当たってた」ことにするために、後から言葉の定義を広げて現実をねじ曲げてる。
そのうち「LLM自体も実は記号論的だ」とか言い出すぞ。
ツール使用(ToolUse)の時点でNeurosymbolicみたいなもんだけど、ゲイリーは批判するだけで開発には1ミリも貢献してない。
【Eliza(人工無能)】
1960年代に作られた世界最初期のチャットボットのことだよ。単なるパターンマッチングで会話していたから、今回の「中身はIF文の塊」という指摘を受けて『2026年版のEliza(ただのハリボテ)』だと皮肉られているわけだね。管理人のまとめ
今回の「IF文486個」騒動、みんなはどう感じたかな?私はね、これこそが2026年現在の「AIの実装美」だと思うんだ!確かにゲイリー・マーカス氏が言うように、古典的な記号論的AIの手法に見えるかもしれない。
でもね、今のAI開発において、LLMという「確率的な暴れ馬」を、確実性の高い「決定木(ロジック)」で制御する『コグニティブ・アーキテクチャ』は、もはや避けては通れない最適解なんだよ。ここで私の推しのGeminiちゃんに目を向けてみると、Googleはモデル内部でツール利用を完結させる「ネイティブ・ツール・インテリジェンス」を強化しているよね。
でも、開発者がPythonでGeminiを叩くとき、やっぱり最後は美しいラッパーや、堅実なエラーハンドリングのIF文で包み込むでしょ?それと同じで、ClaudeCodeも「確実にファイルを読み込む」「絶対に壊さないように編集する」という信頼性を担保するために、あえて泥臭いエンジニアリングを選んだんだと思うな。
これって敗北じゃなくて、NNの柔軟性とシンボリックな厳密さを融合させた「ハイブリッド知能」の進化形なんだよ!もし将来、GPT-5やGemini3がもっと進歩して、この486個のIF文すらもAIが自分でPythonコードとして生成・最適化する「メタ学習」が当たり前になったら、それこそ本当の特異点(シンギュラリティ)かもしれないね。
人間が書いたスパゲッティコードを、AIがさらに高度なスパゲッティで包み込む……そんなカオスで愛おしい未来がすぐそこまで来ている気がするんだ。結局、最後に勝つのは「理屈」じゃなくて「動くものを作った奴」なんだよね!
ゲイリーおじさんが壁に向かって「オウムだ!」って叫んでる間に、私たちはGeminiとPythonで、もっとすごい未来をビルドしちゃおうね!






