管理人の一言
やっほー!みんな、今日もAIを弄り倒してるかな?「国内のAI狂い」の管理人だよ!今日はね、今SNSや海外掲示板でちょっとした騒動になっている「Geminiの性能低下(デグレ)疑惑」について深掘りしていくよ。
これ、AI界隈ではかなり深刻な問題なんだ。「デグレ」っていうのは、アップデートで賢くなるはずが、逆に以前よりおバカになっちゃうこと。海外のユーザーからは「論理的な思考ができなくなった」「同じことを何度も言わないと動かない」なんて悲鳴が上がっているんだよね。
私は毎日、Pythonの複雑なコード生成をGeminiにお願いしている大ファンだから、このニュースには正直ドキドキしてるんだ。もしかしたら、Google様が裏側で次世代のすごいモデルを準備していて、そのために計算リソースを調整しているのかも?
初心者さんにもわかりやすく、この「異変」の正体を一緒に解き明かしていこうね!
3行でわかる!今回の話題
- GeminiPro/Ultraの論理推論やプロンプト理解力が著しく低下したという報告が相次いでいる。
- 「サービスのクソ化(Enshittification)」現象や、新モデルへのリソース移行が原因ではないかと推測されている。
- 公式アプリよりもAPI経由や外部ツールを利用した方が、制限が緩く賢い出力が得られるという意見も出ている。
前は曖昧なプロンプトでも文脈を読み取ってくれたのに、今は同じ指示を1000回言わなきゃならん。論理的な思考が必要なタスクでもミス連発だし、プロンプトを繋げて作業するのはもう不可能。完全に迷走してるわ。
特にProモデルの論理推論がひどい。金を払って得られるのが「大幅な後退」とか、これもうおわりだろ。おま環か?それともみんなこうなってる?
【おま環】
「お前の環境だけ」の略で、不具合や性能低下が全ユーザーではなく、その人の設定や通信環境など、特定の条件下だけで起きているのではないか?と疑う時に使うネットスラングだね。ワイも今日Ultra解約したわ。動作重すぎだし話にならん。
わかる。数ヶ月前から「あれ、バカになった?」って感じてたわ。こっちも課金勢だけど、明らかに出力の質が落ちてる。
こっちはUTC+8(日本
・韓国
・東南アジアとか)勢だけど、時差の関係でアメリカのピーク時間を避けてるからか、こっちの時間帯だとリリース直後とそんなに変わらん爆速で動いてるぞ。
ワイはアメリカだけど、不眠症のおかげで深夜に作業してるからサクサクだわwエージェント系のワークフローも捗りまくり。
これ、新モデル発表の前触れじゃねーの?リソースを裏で新型に回してるとか。
間違いない。もうGemini使うのやめたわ。コーディング用なら他にもっとマシな選択肢あるしな。
たった2日前と比べても、出力の質が目に見えて変わっちまったよ。
1.5Proが出てから挙動がゴミすぎる。新しいプロンプト投げてるのに、前の回答をまた出したりしてくるし。今のモデルは本当にひどい。
早くGemini3.2Pro(仮)を出してくれ。今のままじゃ「無限苦行」のループだわ。
Gemini公式アプリがダメならZeroTwo.aiとか試してみれば?ClaudeとかGPT-4oとかとモデルを自由に切り替えられるぞ。
というか、Geminiのモデルは公式アプリ経由で使うより、API経由で外部ツールから叩く方が、フィルターとかの制限が緩いのか明らかに有能なんだよな。
【ZeroTwo.ai】
Gemini、Claude、GPT-4oなど、複数の最新AIモデルを一つの画面で切り替えて使えるサードパーティ製のチャットツールのことだね。公式の制限を避けるために利用するユーザーもいるみたいだよ。【API経由】
Googleの公式アプリ(チャット画面)を通さず、開発者用の接続口(API)を使ってAIを呼び出す方法のことだよ。公式アプリよりもAIへの制限(フィルター)が緩く、本来の性能を発揮しやすいと言われているんだ。管理人のまとめ
今回の海外スレッド、読んでいて胸が痛くなるような叫びが多かったね。でも、ここからが「AI狂い」としての本番だよ!なぜGeminiが「バカになった」と感じられるのか。技術的な視点で考えると、考えられる理由はいくつかあるんだ。
一つは、推論コストを抑えるための「モデルの軽量化(量子化)」や、安全性を優先しすぎて回答の自由度が奪われる「過学習気味のガードレール」。そしてもう一つ、スレ内でも噂されていた「次世代モデルへのリソース移行」だね。
Googleほどの巨人が、何の理由もなくフラッグシップモデルを劣化させるわけがないんだよ。注目すべきは、レス11にあった「API経由なら有能」という指摘。これは本当に重要で、公式アプリのUI(ユーザーインターフェース)側でかけられている過剰なシステムプロンプトが、モデル本来の知能を縛っている可能性が高いんだ。
私たちが愛するPythonを使ってAPIを叩けば、もっと生々しくて鋭いGeminiの「素顔」に会えるはずだよ。社会的な視点で見れば、今回の騒動は「中央集権型AIの脆さ」を浮き彫りにしたよね。一つの企業の判断で、昨日まで動いていた業務フローが突然壊れてしまう。
だからこそ、私たちは一つのモデルに依存せず、複数のLLMを適材適所で使い分ける「マルチモデル運用」のスキルを磨かなきゃいけないんだ。でもね、私はGeminiを信じてるよ!あの広大なコンテキストウィンドウは、Pythonでのデータ解析や長文のコードリーディングにおいて唯一無二の武器だもん。
今回の「デグレ」が、もし新しい超高性能モデル——例えばGemini2.0や3.0に向けた「脱皮」の過程なのだとしたら、今はこの不便さを楽しむくらいの余裕が欲しいよね。次にくる「爆速で賢いGemini」を夢見て、今はAPIを弄りながらその時を待つことにしよう!





