管理人の一言

国内のAI狂い
みんな、おはGemini〜!「国内のAI狂い」こと、管理人だよっ!2026年も半分が過ぎようとしてるけど、AI界隈の進化スピードは相変わらず「光速」だね!今日は、エンジニアたちの間で物議を醸している「コーディングエージェントの覇権争い」についてピックアップしたよ。
最近は、ただチャットでコードを書いてもらうだけじゃなくて、CLI(ターミナル)から直接ファイルを書き換えたりテストを回したりする『エージェント型』が当たり前になったよね。中でもAnthropic公式の『ClaudeCode』は期待の星だったはずなんだけど……。
なんと、最新のOpus4.6を積んでいるのに「使いにくい」なんて声が上がってるんだ。なぜ今、公式ツールよりも自作の構成やマイナーなツールが注目されているのか。背景には、モデルの知能指数(IQ)だけじゃ測れない「接続環境(ハーネス)」や「ハードウェアの壁」という深い問題があるんだよ。
Gemini-3-flashちゃんをPythonでゴリゴリ動かすのが日課の私としても、この『器』の議論は絶対にスルーできないな!それじゃ、今のローカル開発の最前線で何が起きてるのか、一緒に覗いてみようね!
3行でわかる!今回の話題
- 本家ClaudeCodeよりも、OpenCodeやpi.devなどのサードパーティ製CLIエージェントの方が、自由度と速度の面で高く評価されている。
- 2026年最新の「ClaudeOpus4.6」をプランナー、「Qwen3.6」をローカル実行役に据えるハイブリッド構成が、現時点での開発者たちの最適解。
- Anthropicが仕込んだ(?)とされる速度制限ヘッダーの解除や、AppleM4チップでの「bf16」キャッシュ設定など、ガチ勢による最適化Tipsが続出。
1 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:00:00 ID:B7T8JN6k
ローカル開発でClaudeCodeみたいな最強CLIエージェント探してるんだが。
llama.cppでQwen3.6-35B-A3Bを動かして組み合わせたい。
ZLMの年間30ドルの激安サブスク引けたのはいいけど、ClaudeCodeが全然動かなくて詰んでる。
pi.devとかに乗り換えるべきか?詳しいニキ教えて。
【Qwen3.6-35B-A3B】
Alibabaが開発した最新のオープンソース系LLM。コーディング能力に特化していて、特にローカル環境のRTX3090/4090で動かす『ビルダー(コード生成・実行役)』として神モデル扱いされているよ。
2 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:05:00 ID:w4PwI5iq
>>1
piは設計は神だけど、ぶっちゃけ設定がクソ面倒だぞ。
OpenClawの裏側がpiだって知ってから、なんかガッカリ感半端ないわ。
3 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:08:00 ID:tFtuxunT
piは自分で拡張機能作れるレベルの玄人向け。
「万能プラグを刺しまくってから遊ぶ」みたいなツールだからな。
4 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:12:00 ID:jX6uQM9w
設定いじりたくないならOpenCode一択じゃね?
llama.cpp立ち上げてモデルセレクターで`local`選ぶだけで終わるぞ。
5 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:15:00 ID:zPBgldWK
OpenCodeは便利だけど、トークン食い過ぎって噂あるけどマジ?
6 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:18:00 ID:gevW7d5m
>>1
このベンチマーク見て震えろ。
[AgenticCodingHarnessesBenchmark2026]
衝撃の結果:ClaudeCodeはClaudeOpus4.6を使っても10個中10位。
ハーネス(エージェントの枠組み)として最下位とか草も生えない。
中身がOpus4.6でも、器がクソなら無能になるという証明。
【AgenticCodingHarnessesBenchmark2026】
AIエージェントがどれだけ正確にコードを書き、ツールを使いこなせるかを測定する最新の指標。モデル自体の性能だけでなく、CLIツール側の『指示の出し方』や『エラー修正能力』の差が如実に出るんだ。【ClaudeOpus4.6】
Anthropic社のフラッグシップモデルの2026年最新版。高い知能を持つけど、CLIツールの『器(ハーネス)』側の出来が悪いと、その真価を発揮できないってスレ民には叩かれちゃってるね。
7 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:22:00 ID:yuDeuv0p
>>6
マ?www本家本元が一番使いにくいとか何のギャグだよ。
8 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:25:00 ID:CtLxvn4k
>>1
どうしてもClaudeCodeをローカルで使いたいなら、この呪文を試せ。
実はアトリビューションヘッダーのせいでKVキャッシュが死んでて、デフォルトだと90%も遅い。
`~/.claude/settings.json`にこれをぶち込め:
“`json
{
“env”:{
“CLAUDE_C**E_ATTRIBUTION_HEADER”:”0″
}
}
“`
あとは環境変数をこうじゃ:
`exportANTHROPIC_AUTH_TOKEN=local`
`exportANTHROPIC_BASE_URL=http://localhost:8080`
これでやっと使い物になるレベル。
【CLAUDE_C**E_ATTRIBUTION_HEADER】
ClaudeCodeの通信に含まれるヘッダー設定。スレ内ではこれが原因でKVキャッシュが死に、動作を劇的に遅くさせている『隠しトラップ』だと噂されているね。
9 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:30:00 ID:KCLtRAO2
>>8
有能。てか、そんな隠しトラップ仕込んでるのかよAnthropic……。
10 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:35:00 ID:5hKvq4jP
結局、構成としてはこれが最強な気がする。
・プランナー:ClaudePro(Opus4.6)
・ビルダー(実行役):RTX4090でQwen2.5-coder32B
これで秒間30トークン出るし、WSL上のllama.cppで回せば爆速。
11 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:40:00 ID:OUF3wf2G
そもそも今どきCLIでコーディングしてる奴なんなの?
IDEの拡張機能でよくね?
12 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:42:00 ID:aaNPy9DX
>>11
コードをじっくり読みたくない、指示だけで完結させたい勢にはCLIが神。
まあ、中身をチェックしたいならIDE一択だけどな。
ターミナル内で全部完結させるのがプロっぽくてカッコいいだろ?w
13 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:45:00 ID:6MI0kabl
AppleSilicon(M4Pro/48GB)使いの俺、高みの見物。
OllamaのKVキャッシュは`f16`が安定だわ。
`q8_0`はメモリ浮くけど、Metalだとデクアントが遅くて体感ゴミ。
14 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)10:50:00 ID:0TSMpZ75
>>13
情弱乙。M3/M4以降なら`bf16`試せよ。
AppleのMetalでネイティブ対応してるから、サイズそのまま、速度は最強。
`OLLAMA_KV_CACHE_TYPE=bf16`これ、テストに出るぞ。
15 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)11:00:00 ID:Urh9SdJd
お前ら夢見すぎ。VRAMに100%載らないモデルでエージェントとか正気か?
CPUに少しでもオフロードした瞬間に、トークン処理速度が死んでタイムアウト祭りだぞ。
最初のプロンプトは爆量だし、やり取りが増えればコンテキストも肥大化する。
VRAM全載せできない貧乏環境でエージェントを動かそうとするのは、軽トラでF1に出るようなもんだ。
16 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)11:05:00 ID:RGSWyq2a
>>15
辛辣すぎてワロタ。でも事実なんだよなぁ。
「待てば終わる」と思って寝かしておいても、結局APIのタイムアウトでバラバラになって終了。
結論:VRAMは正義。
17 : 以下、海外のAI狂いがお届けします。 2026/04/27(月)11:10:00 ID:6bbkACc9
Qwen3.6-35B-A3Bなら、最新のik_llama.cpp使えば3090でもいけるんじゃね?
本家llama.cppより速いし、ツール呼び出しの精度もQwenはガチで高い。
迷ってるならとりあえずQwen+MistralVibeあたりで組んでみろ。飛ぶぞ。

国内のAI狂い
管理人のまとめ
今回のスレ、めちゃくちゃ深くて面白かったよね!2026年現在のAI開発における残酷な真実が浮き彫りになった感じ。特に「中身が最強のClaude4.6Opusでも、器(エージェントの枠組み)がダメなら無能になる」っていう指摘は、私たちユーザーにとっても大きな教訓になると思うんだ。
モデルの賢さだけに依存する時代は終わって、いかにその推論能力を「摩擦なく」実行環境に流し込めるかという、ソフトウェア・エンジニアリングの地力が勝敗を分けるフェーズに入ったんだね。技術的に見逃せないのは、AnthropicがClaudeCodeに仕込んでいたとされる『アトリビューションヘッダー』の罠だよ!
テレメトリやトラッキングのためにKVキャッシュを犠牲にするなんて、ローカル派の私たちからしたら「なんてことしてくれるの!」って感じだよね。でも、こういう隠し設定をハックして、環境変数を書き換えて無理やり自分の色に染め上げるプロセスこそ、AI狂いの醍醐味だったりするんだけどっ!
私が推してるGemini-3-flashも、Pythonの最新ライブラリを使えば驚くほど柔軟にローカル環境と統合できるんだ。今回のスレで出てきた「プランナー(司令塔)」と「ビルダー(実行役)」を分ける構成は、今のLLMの特性を完璧に理解した賢い戦略だね。
重たい思考はクラウドのOpus4.6やGeminiに任せて、秒単位のコーディング作業はローカルのRTX4090でQwenを回す……。このハイブリッドな『二刀流』こそ、2026年の最強構成と言えるんじゃないかな?
ただ、最後に語られていた「VRAM格差」の問題は、楽観的なAI社会の裏側にある厳しい現実だよね。どれだけソフトウェアが進歩しても、結局は物理的なVRAM容量が「思考の解像度」を決めちゃう。でも、だからこそ`bf16`のネイティブ対応や量子化技術の進化に、私たちはワクワクしちゃうのかも。
これからは「どのAIを使うか」だけじゃなく、「自分の環境をどうAIに最適化するか」が、真のエンジニアのスキルセットになっていくよ。私もGeminiちゃんと一緒に、究極のPython自作エージェントを突き詰めていくつもり!
みんなも、ハードウェアの限界をハックして、自分だけの『最強の相棒』を育てていこうね!
Source: https://www.reddit.com/r/LocalLLaMA/comments/1swhw84/what_is_the_best_coding_agent_cli_like_claude/