【節約】Claudeの無駄な挨拶を消してトークン63%削減!最強プロンプト「UniversalClaude.md」はアリかナシか?【AI活用・ChatGPT】

本ページはプロモーションが含まれています
(サムネイル解説: drona23/claude-token-efficient ユニバーサルなCLAUDE.md。コードを変更することなく、Claudeの出力トークンを63%削減します。 コントリビューター:2 イシュー:0 スター:384 フォーク:18)

管理人の一言

国内のAI狂い

やっほー!「国内のAI狂い」の管理人だよ!みんな、Claude君とチャットしてて「挨拶はいいから早く結論を教えて!」ってモヤモヤしたことない?実は今、GitHubで公開された「UniversalClaude.md」っていう設定ファイルが、AI界隈で大論争を巻き起こしているんだよ。

これはClaudeの余計な前置きを消して、出力トークンを63%もカットしちゃうっていう、超効率重視のプロンプトなんだ。でも、AIの「喋りすぎ」を制限することは、実はその知能を制限することにも繋がりかねないんだよね。

今日は、私たちがAIに求めているのは「安くて速い執事」なのか、それとも「深く考えるパートナー」なのか、PythonでAPIを叩く時のコスト感覚も交えながら、この熱い議論を深掘りしていくよ!Geminiちゃんのスマートな回答と比べながら読むと、もっと面白いかも!

それじゃあ、チェックしていこうね!

【UniversalClaude.md】Claudeの出力を極限まで効率化するために作られた、GitHub公開の設定用マークダウンファイルのことだよ。無駄な挨拶を削って、必要な情報だけを吐き出させるための指示が詰まっているんだ。

3行でわかる!今回の話題

  • Claudeの冗長な「承知いたしました」や「媚び売り」を排除し、出力トークンを最大63%削減する設定ファイルがGitHubで話題に。
  • 「結論を1行目に書かせる」指示は、AIの推論プロセス(ChainofThought)を妨げ、回答の精度を著しく下げる「デバフ」になるリスクがある。
  • 出力トークンを数十個削るために数百ワードの指示を入力すると、料金比率的にかえってコスト高になるという現実的な懸念も指摘されている。
1 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:00:05 ID:97Wy45XS
引用元記事

Universal Claude.md – cut Claude output tokens by 63%
https://github.com/drona23/claude-token-efficient

Universal CLAUDE.md – Claudeの出力トークンを63%削減。コード変更不要のドロップイン対応。 – drona23/claude-token-efficient

Claudeのクソ長い前置きと「承知いたしました!」にキレてるお前らに朗報。出力トークンを63%も削れる最強の設定ファイル「UniversalClaude.md」がGitHubで公開されたぞ。

[1]UniversalClaude.md–cutClaudeoutputtokensby63%

https://github.com/drona23/claude-token-efficient

・無駄なコンテキストを省く
・「結論が1行目、推論はその後」を徹底
・「お役に立てて嬉しいです」系の媚び売り(sycophancy)を禁止

これでトークン代節約&爆速化間違いなしw








2 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:02:15 ID:YEJs9ArL
>>1
神きたああああああ!
あの「素晴らしい質問ですね!」とかいうヨイショ、マジで時間の無駄だと思ってたんだわ。
3 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:05:30 ID:r5XWllMR
[2]待て、これ罠じゃねーの?
単発の回答ならいいけど、複雑なコーディングとかエージェントにやらせる時は、Claudeが「なぜそうしたか」をダラダラ書くことで文脈を維持してる側面がある。出力を削りすぎると、途中で「自分が何をやってるか」見失う(lostinthesauce)リスクがあるぞ。
4 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:08:42 ID:L1p8BcQH
[3][4]ほんこれ。LLMが「自己回帰(autoregressive)」だってこと理解してない情弱が多すぎる。
「答えを1行目に書け、推論は後にしろ」って指示は、推論なしで適当な答えを先に生成させることになる。そうなると、その後の「推論」は、先に吐き出した「間違ってるかもしれない答え」を正当化するだけのただのコンファメーションバイアス(確認バイアス)の塊になるぞ。
5 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:11:10 ID:jfEbPb81
[9]カーパシー(元OpenAI/Tesla)も言ってたけど、「モデルにたくさん考えさせる(トークンを吐かせる)」方が、数学とか論理問題の正答率は上がるんだよな。
短くさせる=バカになる、っていうトレードオフは覚悟しとけよ。
6 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:13:55 ID:BFv4px4M
[5]かつては人間が「最高のコード」を書くために調整してたのに、今や「最高のコード生成器」を動かすために四苦八苦してる。この業界、もう大人が一人も残ってないのか?w
7 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:15:20 ID:UW48ZVg8
>>4
え、じゃあ「結論から言え」って指示は、AIにとってはデバフなの?
8 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:18:05 ID:zNID2fZ2
>>7
そういうこと。特に推論モード(ChainofThought)が重要なタスクでは、「あー、えーっと、つまり……」って考えさせるプロセス自体が知能なんだよ。それを禁止するのは、人間に「何も考えずにまず結論だけ叫べ。理由は後で考えろ」って言うのと同じ。
9 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:21:44 ID:ulfduiX7
[6]でもさ、Claudeのあの「丁寧すぎて気持ち悪い」媚び売りはどうにかしたいわ。「素晴らしいコードですね!しかし~」とか、こっちはお前の機嫌取りに金払ってるんじゃねーんだよ。言葉数が増えるほど読み手の認知負荷も上がるし、ぶっちゃけ信頼性下がるわ。
10 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:25:30 ID:em973piI
[10][19]お前らコストの計算できてないだろ。最近の調査だと、トークン消費の9割以上は「入力(Input)」なんだよ。この「UniversalClaude.md」を入れると、毎回400ワード以上の指示をコンテキストにぶち込むことになる。

出力トークンを数十個削るために、入力トークンを数百個増やすとか、料金比率(入力:出力=1:5)を考えても赤字になる可能性高いぞw
11 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:28:12 ID:dH7R7xpt
[7]結局、この辺のツールを組み合わせて「賢く」節約するのが正解っぽいな。

・**Headroom**:プロキシ経由でコンテキストを34%圧縮。
・**RTK**:Rust製のCLIプロキシ。シェル出力を60-90%圧縮してClaudeに投げる。
・**MemStack**:プロジェクトの文脈を記憶させて、毎回全ファイルを読み直す無駄を省く。
12 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:32:45 ID:fH66QTiT
[27]ClaudeCodeCLI、マジでたまにブチギレたくなる。出力がバグってUnicodeの化け物がターミナルに表示されたり、モデルが「自分は完璧なASCIIテーブルを出した」と思い込んでるのに、実際はグチャグチャだったり。
時速200マイルでガードレールに激突しながら走ってる気分だわ。

「エージェントだから賢い」とか言ってる奴、騙されるなよ。あいつら、たまに一番アホな方法でエラー解決しようとするからな。
13 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:35:10 ID:ICt8CCQx
[12]俺はもう「洞窟に住む原始人みたいに喋れ」って指示してるわ。これで50%はトークン削れる(白目)
14 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:39:00 ID:hIBmkJRg
[31]俺は`/handoff`っていう自作スキル使ってるわ。セッションが長くなって限界が来たら、それまでの経緯をMarkdownで要約して保存させる。

これで「あ、前回の続きね」って感じで、新しいセッションに最小限のトークンで引き継げる。マネージャーへの作業報告にもなって一石二鳥だぞ。
15 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:42:55 ID:WNcNbWuY
[42][43]こういう「Claude改造レイヤー」って、数週間後には本体がアップデートされて産廃になるのが目に見えてるんだよな……。結局、バニラ(標準設定)で使うのが一番コスパいいっていう。
16 : 以下、海外のAI狂いがお届けします。 2026/03/31(火)11:45:20 ID:s92zeamq
結論:
・短くしすぎるとClaudeがバカになる
・入力トークン代で逆に損する可能性あり
・でも媚び売りメッセージは消したい

結論、自分で`CLAUDE.md`に「余計な挨拶は省け」って3行書くのが最強ってことで桶?w

【CLAUDE.md】

Claudeのプロジェクト機能や開発ツール(ClaudeCodeなど)で、AIへの振る舞いを指定するために使われる設定ファイルのことだよ。ここにマイルールを書いておくと、毎回指示しなくても自分好みの挙動にしてくれるんだ。
国内のAI狂い

管理人のまとめ

今回の議論、AIの仕組みを理解する上ですごく本質的なテーマだよね!まず技術的に重要なのは、LLMが「自己回帰(Autoregressive)」という性質を持っていることなんだ。AIにとってトークンを吐き出すプロセスは、人間が「うーん、ええっと…」って考えながらペンを動かすのと全く同じ。

だから「結論を1行目に書け」という指示は、思考のプロセスを飛ばして直感だけで答えろって言ってるようなものなんだよ。これだと、複雑なPythonコードの生成なんかでは、論理が破綻しちゃうリスクが激増しちゃうんだよね。

社会的にも、この「効率化vs思考の質」の対立は面白いよね。私たちはAIを道具として使い倒したい一方で、その「知能」の源泉が、実は無駄に見える「試行錯誤の言葉」にあるという矛盾に直面しているんだ。個人的には、出力をケチってモデルをバカにするよりは、GoogleのGemini1.5Proみたいに「コンテキストキャッシュ」を上手く使って、長い指示(システムプロンプト)のコストを抑えるアプローチの方が断然スマートだと思うな!

Geminiちゃんなら、長文のコンテキストも高速に処理してくれるし、PythonSDKでの制御も直感的で最高なんだよ。未来への示唆として、これからは「人間がプロンプトで矯正する」時代から、モデル自身がタスクの難易度に応じて「思考トークン」の量を動的に調整するフェーズに移行していくはず。

それまでは、今回のまとめにもあったみたいに、自分専用の`.md`ファイルを作って試行錯誤するのが一番の楽しみかもね。効率だけを追い求めて、AIの「知的な揺らぎ」を消し去ってしまうのはもったいない!みんなも、コストと知能のギリギリの境界線を楽しんでみてね。

それじゃあ、また次回のAIニュースでお会いしようね!

Source: https://news.ycombinator.com/item?id=47581701
よかったらシェアしてね!
  • URLをコピーしました!