管理人の一言

国内のAI狂い
やっほー!国内のAI狂いこと、当ブログ管理人です!みんな、今日も元気にVRAM燃やしてるかな?今日は動画生成AI界隈で今一番アツい『LTX-2』の話題だよ!これまでは「高品質な動画生成=富豪の遊び」ってイメージだったけど、ついにVRAM16GB、つまり一般的なゲーミングPCでフルHD動画が爆速で焼けちゃう時代が到来しちゃったんだ。
この衝撃、例えるならPythonを初めて触った時に「え、こんなに簡単に動くの!?」って感動したあの感覚に近いかも!今回の記事では、海外の職人たちが編み出した「–novram」っていう魔法の設定や、ChatGPTをプロンプト職人として使い倒すハックが紹介されているよ。
動画AIって設定が難解そうに見えるけど、中身を知ればとっても愛おしい技術なんだ。初心者さんでも今日から「監督」になれるコツを、私と一緒にじっくり読み解いていこうね!
【LTX-2】最新のオープンソース動画生成AIモデルだよ。SoraやVeoといった超高性能AIに近い品質を、自分のPC(ローカル環境)で再現できる可能性があるとして注目されているんだ。
【–novram】ビデオメモリ(VRAM)の消費を極限まで抑えるための実行パラメータだよ。これを使うことで、本来ならメモリ不足で落ちてしまうような高解像度の生成も可能になるんだ。
3行でわかる!今回の話題
- LTX-2のI2V(画像から動画)は、VRAM16GB環境でも「–novram」設定を加えればフルHDの8秒動画を約7分で生成可能。
- リップシンクや動きの自然さは非常に高いが、顔の整合性(歯の描写など)や激しい動きによる変形にはまだ課題がある。
- クオリティを上げるコツは、ChatGPTでプロンプトを強化し、低速だが高品質なサンプラーを使って「納得いくまでガチャを回す」こと。
1 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:22:45 ID:Yj7G8RtK
LTX-2、完璧じゃねーけどマジで神だわ。
(俺のスペック:VRAM16GB、RAM64GB)
最初ズームしかしない動画とか、変な格子模様が出るだけで苦戦したけど、やっと動く設定見つけたから共有する。
`run_nvidia_gpu.bat`に`–novram`書き足すだけ。
fp8版でI2V(画像から動画)のワークフロー使ってる。
【LTX-2の感想】
・爆速(1080pの8秒動画が7〜8分で終わる)
・動きが自然、リップシンクが神レベル・ローカルPCでフルHD生成とか夢かよw
【弱点】
・顔の整合性はまだ甘い。歯がガチャガチャになりがち
・激しい動きだとモーフィング(変形)が出る
・音質は当たり外れ激しい
まあ、とりあえず俺が厳選した出力結果を見てくれ。このレベルが個人で出せるのはヤバい。
【fp8】
浮動小数点数の精度を8ビットに落としたデータ形式のことだよ。計算を軽くしてメモリ消費を抑えられるから、家庭用のグラフィックボードで重いAIを動かす時の救世主だね。
2 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:25:10 ID:WmYol7d5
動画のクオリティ高すぎてワロタ。
これもう公式の広告だろw
3 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:26:33 ID:BfpaJgD4
>>2
あざすw広告っぽく見えるけど、ただの趣味全開のワークフロー共有だわw
4 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:28:12 ID:mQaAfw1W
これ一発で出たの?何回くらい回した?
5 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:30:05 ID:k8XfrxxO
>>4
俺、クソ細かい性格だから納得いくまで回しまくったわ……w引かないでくれよな。
6 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:31:55 ID:sSTREFi0
>>5
「こだわりの塊(tism)」に神の祝福を。
8 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:35:12 ID:yxUmdJIw
>>7
同じプロンプトでシード値変えまくって、ガチャ回し続けるのが基本だな。
13 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:42:00 ID:0kNntzl4
動画AIのプロンプトとか全然わからんから助かる。
一発で出るもんかと思ってたけど、やっぱ職人の「テイク重ね」が必要なんだな。
14 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:44:18 ID:lobfHlBC
>>13
そうそう。何も考えずに出てきたやつを貼る人が多いけど、細部にこだわると化けるぞ。
21 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)18:55:09 ID:bvWyO1QL
RTX5080Mobile(VRAM16GB)使ってるけど、デフォ設定だと絶望的な結果しか出ないんだわ。
1のワークフロー試して俺の環境でもまともな動画出るか期待。
25 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:02:44 ID:qUdxBlL6
>>24
プロンプトはChatGPTに「最強にして」って頼んでるwこれが魔法のコツだわ。
29 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:10:15 ID:F7qemoni
>>28
音に関しては特に何もしてないぞ。ただの「厳選」の結果。
酷いときは耳を突き刺すようなノイズしか出ないw
31 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:15:30 ID:dD6WOBbs
今のところSoraとかVeoに一番近いオープンソースモデルだと思うわ。
まだまだ変形バグは多いけどな。
33 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:18:22 ID:zj7xkmGU
WanとかいうAIだと、すぐスローモーションの呪いにかかるけど、LTXはそれがないのが最高。
【Wan】
LTX-2と同時期に話題になっている別の動画生成AIモデルだよ。モデルによって動きの癖や得意不得意があるから、海外のAIユーザーたちの間ではよく比較対象になっているんだ。
36 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:22:05 ID:gGb8rbnf
>>33
Wanはプロンプトに`24fps`って入れると呪いが解けるぞ。
41 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:35:40 ID:25bzFfne
>>1
お前のワークフロー、マジで黒魔術かよw
1280*768で81フレーム回しても、VRAM3.5GBしか食ってないんだが。
他のだと即落ちしてたのに、爆速で動くわ。
42 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:38:12 ID:Xy8fVaYB
>>41
最高だろw`–novram`パラメータなしだと速攻でOOM(メモリ不足)吐くからな。
46 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:45:55 ID:FafnmJ17
進化速すぎてちょっと怖いレベル……。
47 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)19:48:30 ID:Ehf66xyO
まだ指とか顔を修正するLoRaが足りないよな。Civitaiで少しずつ出てきてるけど。
RTX6000Proでぶん回してるガチ勢の動画も見たけど、高解像度だとやっぱ全然違うわ。
https://reddit.com/r/StableDiffusion/comments/1q9cy02/ltx2_i2v_quality_is_much_better_at_higher/
51 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:05:15 ID:nDhz26fM
>>50
例えば、最初のカットのプロンプトはこんな感じ。
プロンプト
womansitsinarelaxedlivingroomfacingastaticcameraandspeaksdirectlytothelenswithaclearsenseofcuriosityinhervoice,shestartssoftlyandsays“So…”thenpausesbrieflywhileholdingeyecontact,duringthepausehereyesquicklydartfromsidetosideinaplayfulcuriouswaybeforelockingbackontothelens,afterthepausesheleansinveryclosetowardthecamerauntilherfacenearlyfillstheframe,herexpressionisinquisitiveandslightlyteasingasshefinishesthelinesaying“isitanygood?”,immediatelyafterspeakingshegivesasmallrestrainedchuckleunderherbreathandeasesbackjustalittle,thecameraremainscompletelystillthroughout
ChatGPTに「いい感じに盛って」って言えばOKw
53 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:10:44 ID:qKrQQQZh
>>52
ちなみに開始画像はZ-ImageTurboで生成してるぞ。
56 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:22:11 ID:rfT6CtT4
サンプラーの設定が大事だわ。
俺は`dpmpp_sde+ddim_uniform`を使ってる。
`euler+simple`より2.5倍くらい遅いけど、質が段違い。
【dpmpp_sde+ddim_uniform】
動画を生成する際の「サンプラー(計算手法)」の設定だよ。標準的な設定よりも時間はかかるけど、その分ノイズが少なくて一貫性のある高品質な映像が作れるんだね。
57 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:25:33 ID:uGp26mo3
>>1
俺もEuler派だわ。Res_2sより一貫性ある気がする。
でも一貫性に関してはまだWan2.2の方が上かなぁ。
62 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:35:18 ID:e4wj9EDk
>>57
Res_2sは音質を破壊しがちだよな。
俺はGradientEstimation使ってステップ数増やす方が、音も動画も綺麗にいく気がする。
スケジュールを自前で組むと、アップスケール時の歪みも減るぞ。
68 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)20:48:55 ID:G9mMtCVG
ワークフローの`ClipLoader`でメモリ不足になったけど、`Gemma3ModelLoader`に変えたら解決したわ。
環境によるだろうけど一応報告。
80 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)21:15:22 ID:N4vs9Otb
生成の流れはこんな感じ。
1.まず低解像度で動画を出す
2.それを2倍アップスケールする
最初からターゲット解像度で出すより、このやり方が圧倒的に速い。
83 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)21:22:40 ID:9tgolcYV
>>82
RAM(メインメモリ)が重要っぽいぞ。
1920×1080生成中でも、VRAMは37%くらいしか使ってねーし。
85 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)21:30:15 ID:oIurqBXV
>>84
そう、`–novram`入れないと何も始まらねーわw
90 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)21:45:33 ID:QNGlxMpu
メモリが安いうちに64GB積んどきゃよかった……今の価格まじでクソ。
93 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)21:55:12 ID:g7uaQ4ss
>>92
同じプロンプトで微差の動画が並んでるの見ると、
「Vloggerがボツテイクを量産してる」みたいで脳がバグるなw
97 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)22:10:45 ID:WycXLgwo
>>96
LTX-2でエロ(NSFW)は無理だぞ。
公式は一切学習させてないから、コミュニティ製のLoRaが出るのを待つしかない。
102 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)22:25:33 ID:rlkoLhLf
数年後には、プロンプト一つで映画一本分丸ごと生成できるようになるんじゃね?
106 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)22:40:12 ID:jy9OhRd7
>>105
RTX5090持ってて落ちるのは草。
バッチファイルに`–reserve-vram2`か、1が言ってる`–novram`入れてみ。
俺も4090で苦戦してたけど、これで見違えるほど安定した。
109 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)22:55:40 ID:hD2daJNg
アップスケール前提なのがなぁ。
Wanの1080pネイティブと比較すると、LTXはまだボヤけて見えるわ。
117 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)23:15:22 ID:I6Mk8LKu
ハリウッド終了のお知らせ。
120 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)23:25:44 ID:fC94wQEo
>>119
最後、二人の女の子が不自然に近づくシーンな……あれ実は20回やり直したけど限界だったw
でも、オープンソースでここまで来たのはマジで歴史的だわ。
128 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)23:40:09 ID:avcYL6zX
これYoutubeとかで流れてきたら、平均的な人間はAIだって気づかないレベルだろ。
129 : 以下、海外のAI狂いがお届けします。 2026/01/12(月)23:42:15 ID:NrPBeT6N
>>128
完全に同意。ネット上の動画を何も信じられない時代がすぐそこまで来てるな。
139 : 以下、海外のAI狂いがお届けします。 2026/01/13(火)00:05:33 ID:HhcQYaWV
ローカルで使えるVeo2って感じだな。
140 : 以下、海外のAI狂いがお届けします。 2026/01/13(火)00:07:12 ID:VNOoK3hB
100%それ。
146 : 以下、海外のAI狂いがお届けします。 2026/01/13(火)00:20:44 ID:7paxsOpD
RTX4060(VRAM8GB)とDDR532GBで動くかな?
147 : 以下、海外のAI狂いがお届けします。 2026/01/13(火)00:25:12 ID:HXu43JoQ
RunPodの48GBVRAM環境で試したけど、デフォだと微妙だった。
1の職人設定をパクるのが正解っぽいな。
151 : 以下、海外のAI狂いがお届けします。 2026/01/13(火)00:45:55 ID:IQszlBPC
>>1
解像度とプロンプト晒してくれ!
お前の設定、俺のより明らかに綺麗なんだわ。

国内のAI狂い
管理人のまとめ
今回の議論、技術的な知恵が詰まっていて最高にエキサイティングだったね!特に注目したいのは、LTX-2が「ローカル環境でのフルHD」という高い壁を、量子化(fp8)と巧妙なメモリオプティマイザで突破したことだよ。
スレ主が言っていた「低解像度で生成してからのアップスケール」という手法は、実はPythonでComfyUIのカスタムノードを組む際の大原則なんだ。最初から巨大な行列演算を強いるんじゃなくて、小さな「種」を精巧に作ってから育てる。
この効率的なアプローチこそが、リソースの限られた個人勢がクローズドな巨大モデルに対抗するための唯一の武器になるんだね。そして、私が一番ゾクっとしたのは「ChatGPTにプロンプトを最強にしてもらう」という手法。
これ、最新のGemini2.0Flashとかを使えばもっと凄くなるはずだよ!Geminiの高度なマルチモーダル理解を使って、動画の1フレームごとの微細な動きを言語化させ、それをLTX-2のプロンプトに流し込む……。
この「AIがAIのために台本を書く」という多段構成こそが、個人をハリウッド級のクリエイターに変貌させる真の魔法なんだと思うな。でも、スレの最後で危惧されていた「ネットの動画が信じられない時代」っていうのは、もう「予言」じゃなくて「現状」だよね。
LTX-2が示すリップシンクの精度や自然な挙動は、情報の信頼性の定義を根底から覆そうとしている。だからこそ、私たちAI狂いは技術をただ享受するだけじゃなくて、Pythonを武器にその仕組みを理解し、Geminiと一緒に「何が真実で、何が創造なのか」を見極める審美眼を養わなきゃいけないんだ。
数年後、プロンプト一つで映画が完結する未来が来た時、その最前線で一緒に笑っていられるように、今は設定ファイルを弄り倒して、自分だけの最高の1テイクを追い求めていこうね!
Source: https://www.reddit.com/r/StableDiffusion/comments/1qae922/ltx2_i2v_isnt_perfect_but_its_still_awesome_my/