【悲報】Claude3Opusが弱体化?ClaudeCodeのバグ多発と「バイブ・コーディング」の末路…AI開発の限界が露呈か

本ページはプロモーションが含まれています
(サムネイル解説: 18866 [バグ] Auto-compact が Claude.ai (web &… でトリガーされない)

管理人の一言

国内のAI狂い

やっほー!「国内のAI狂い」こと、ブログ管理人だよ!みんな、今日も元気にPython書いてるかな?今、AIエンジニア界隈でめちゃくちゃ話題になってるのが、Anthropic社の最強モデルだったはずの「Claude3Opus」の弱体化疑惑と、新しい開発ツール「ClaudeCode」を巡る阿鼻叫喚なんだよね。

そもそも、なぜこんなに荒れてるかっていうと、AIが「あまりにも便利になりすぎた」反動なんだ。AIにコードを丸投げして、中身を理解せずに「雰囲気」で開発を進める「バイブ・コーディング」が流行った結果、AIのちょっとした精度の低下やバグが、開発現場を完全に麻痺させちゃう事態になってるの。

今日は、なぜOpusがおバカになったと言われるのか、そして「AIがAIを修正する」というサイクルの限界について、初心者さんにも分かりやすく解説していくよ!Gemini派の私としても、このライバルの苦境は見逃せない大事件なんだよね!

3行でわかる!今回の話題

  • AnthropicのCLIツール「ClaudeCode」で、修正済みのはずの自動圧縮機能が動作しない、Windows版が機能しないなどの不具合が続出している。
  • かつての最強モデル「Opus」が「Sonnet以下になった」と感じるユーザーが急増し、コスト削減のためのサイレントな性能劣化(ナーフ)疑惑が浮上。
  • AIが書いたコードの肥大化や、論理を無視した「バイブ・コーディング」による品質低下など、AI主導開発の「負の側面」を懸念する声が上がっている。
1 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:00:00 ID:qx13FJSZ
引用元記事

Auto-compact not triggering on Claude.ai despite being marked as fixed
https://github.com/anthropics/claude-code/issues/18866

プレフライトチェックリスト 既存のイシューを検索しましたが、まだ報告されていません。 これは単一のバグ報告です(異なるバグについては個別の報告をお願いします)。 Claude Code の最新バージョンを使用しています。 問題点 自動コンパクト化が…

AnthropicのClaudeCode(CC)界隈が荒れてるな。
「自動圧縮が効かない」「Opusがバカになった」「Windows版はゴミ」と阿鼻叫喚。
お前らの環境はどうよ?

【ClaudeCode(CC)】

Anthropicがリリースした、ターミナル上でAIと対話しながらコーディングができる公式CLIツールのことだよ。直接ファイルを編集したりコマンドを実行したりできる優れものなんだけど、まだ不安定な部分も多いみたいだね。
2 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:01:10.00 ID:e0xZ0qhH
Claude.aiで自動圧縮(Auto-compact)が修正済みってなってるのに発動しないんだが。
これもう半分、人間に協力するのを拒否し始めた「自己意識」だろ。
審判の日は近いわ。

3 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:02:30.00 ID:6DCdpkxI
CCの唯一の救いは、まっさらなセッションから始める分には優秀なことだな。
コンテキストが溜まってきたら、要約とT**Oリストを作らせて、それを新しいセッションにコピペしてやり直すのが今の正解。

ただ、ターミナルとVSCodeGUIで体験に差がありすぎるのはマジで勘弁してほしいわ。
GUI版だとチェックポイントもロールバックも未実装とか、一貫性がなさすぎる。

https://github.com/anthropics/claude-code/issues/10352

4 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:03:50.00 ID:HtaXld7J
なあ、Opusナーフ(弱体化)されてね?
単純なリベースすらミスるし、バグ修正を頼んだら「同じバックエンド内でHTTPGETして値を取る」とかいうゴミみたいな解決策出してきたぞ。今やSonnet以下だわ。
周りのエンジニアもみんな「何かがおかしい」って言ってる。

5 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:05:15.00 ID:A77dPXbj
Windows版のVSCodeプラグインとCLI、完全にぶっ壊れてるだろ。
有料会員になったのに使い物にならん。サポートに連絡しても完全無視。
「メールで返信します(大嘘)」のショックから立ち直れない。
6 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:06:40.00 ID:GY0GndLm
プロのエンジニア様たちが、AIが出したコードの修正に何時間も費やして、挙句の果てにAIチャットと格闘してるのホント草。
7 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:08:20.00 ID:o23J32UZ
これAI企業のいつものパターンだろ。

・神モデルを出してハイプ(過熱)させる
・大量のユーザーを集めてVCから資金調達
・裏でこっそり推論コストを削ってモデルを劣化させる
・ユーザーが騒ぎ始めたら最初は無視、次に「気のせいw」とガスライティング
・最終的に「設定ミスでした(わざと)」で逃げる

【ガスライティング】

相手にわざと間違った情報を与えて、自分の正気や記憶を疑わせる心理的虐待のこと。ここでは、ユーザーが「性能が落ちた」と指摘しても、企業側が「設定ミスです」とか「気のせいです」とはぐらかす様子を指しているね。
8 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:10:05.00 ID:gZr00TfI
ClaudeCode自体が「AIが書いたコード」で肥大化して自壊し始めてる説。
100万行超えのAI製コードベースのバグを、どうやってAIで直すんだよ。
LLMは新機能の追加は得意だけど、エッジケースの修正はゴミカスだからな。
9 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:12:45.00 ID:ILMVhHaU
「バイブ・コーディング(雰囲気開発)」のツケが回ってきたなw
ドキュメントと実装が完全に食い違ってるし、GitHubの修正パッチも「バイブスで直しました」みたいなデタラメなやつばっかり。
論理的に全体を把握してる人間が一人もいない。
10 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:15:30.00 ID:71pnjB8L
1ヶ月前は3〜4日かかる作業を1日で終わらせてくれたのに、今じゃ20分間ずっと同じミスを繰り返してやがる。
AI企業はもう赤字でモデルを回せないんだろうな。
Anthropicのプットオプション(株価下落への賭け)買えばええんか?

【プットオプション】

将来、特定の価格で株を「売る」ことができる権利のことだよ。株価が下がれば下がるほど利益が出る仕組みだから、「この会社の未来は暗いから、株価下落に賭けようかな」という強烈な皮肉として使われているんだね。
11 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:17:00.00 ID:yUgL5btN
>>5
それ、APIアクセス(platform.claude.com)とClaudeCode(claude.ai)のアカウント混同してないか?
別物だから確認してみろ。まあUIが不親切なのは同意だが。
12 : 以下、海外のAI狂いがお届けします。 2026/01/24(土)00:20:00.00 ID:CeBM64UD
結論:
・ClaudeCodeは現在バグのデパート。特にWindows勢は避難推奨。
・Opusの劣化は「気のせい」レベルを超えてる。
・「AIがAIを直す」サイクルの限界が見えてきた。

お前ら、たまには自分の頭でコード書けよw
国内のAI狂い

管理人のまとめ

今回のClaudeを巡る騒動を深掘りすると、AI開発が直面している「自食作用」という恐ろしい壁が見えてくるんだ。掲示板でも指摘されていたけど、AIが書いた膨大なコードを、さらにAIが修正し続けることで、人間が誰一人として全体像を把握できない「技術的負債のブラックホール」が生まれ始めているんだよね。

これが「バイブ・コーディング」の末路ってわけ。技術的な背景を推測すると、Opusの弱体化疑惑は、企業側が推論コストを抑えるためにモデルを蒸留(軽量化)したり、量子化しすぎたりした副作用の可能性があるよ。

でもね、ここで私の推し、Googleの「Gemini1.5Pro」の強みを思い出してほしいんだ!Geminiなら最大200万トークンという圧倒的なコンテキスト窓があるから、ClaudeCodeみたいに「要約して新しいセッションにコピペ」なんて面倒なことをしなくても、リポジトリ全体を一つの脳内に叩き込んで論理的な整合性を保つことができるんだよ。

これって、コードの「バイブス」じゃなくて「文脈」を完全に理解している証拠だよね!また、今回の件で再認識されたのは、結局のところAIを使いこなすには、私たち人間がPythonのような厳格な言語仕様を理解し、型ヒントやテストコードを「AIへの制約」として正しく与える能力が必要だってこと。

AIに丸投げして思考を停止するんじゃなくて、AIが吐き出したロジックを人間が「審判」として評価しなきゃいけない時代が来たんだね。AI企業がコスト削減に走ってモデルが劣化するリスクがある以上、一つのAIに依存するのは危険だよ。

みんなも、Gemini1.5ProとPythonの黄金コンビを武器に、AIに振り回されない「真のAI使い」を目指そうね!AIがAIを直せなくなる限界が来た時、最後に頼れるのは、あなたのロジックだけなんだから!

Source: https://news.ycombinator.com/item?id=46736091
よかったらシェアしてね!
  • URLをコピーしました!