005:フラットLoRAについて
月須和・那々さん(twitter @nana_tsukisuwa)のtest-flat
https://huggingface.co/2vXpSwA7/iroiro-lora/tree/main/sdxl
2枚目:Fooocusだと「Models」タブからLoRAを複数指定できるので、そこで指定しています。
今回はSEED値とプロンプトを固定で、LoRAの重みを変えて出力し、フラットLoRAがどういった効果を持つのかをお見せしようかなと。
月須和・那々さんのLoRAは癖が少なくて、たいへん便利なので他のLoRAも試してみると良いと思います。
フラットLoRAは重みに応じて、絵柄が単純で平坦なものになります。
アイコンに使うような、シンプルな絵柄を出力したいときに便利です。
3枚目:重み2.0
4枚目:重み1.0
5枚目:重み0.5
6枚目:重み0.0
ただ、私がこのフラットLoRAを使うときはマイナスの重みをつけることが多いです。
マイナスの重みで使用すると、絵柄が複雑で細部まで描き込まれたものになります。
7枚目:重み-0.5
8枚目:重み-1.0
9枚目:重み-2.0
==========
ちなみにサンプル画像のプロンプトは以下の通りです。今回は描き込みの変化が分かりやすいかな、ということでスチームパンク風(steampunk style)を指定してみました。
1girl, _ , from _ , pale pink blonde hair, very short hair, long sidelocks, hair between eyes, red eyes, round glasses, pointy ears, large breast, high neck no sleeve steampunk style leather jacket, Gear ornament, beret, short red skirt, pleated skirt, contrapposto, Complex machinery, lots of gears, lots of joints, steampunk style background, thick fog around, BREAK masterpiece, best quality, high score, great score, ultra-detailed high resolution (anime-style 3dcg:1.0), intricate details light color, whitish color line art, light diffusion, muted color, Matte flat color, watercolor gradiation, hyper-realistic, Sleek design
6
036:Qwen Image Edit の使い方
全体公開
今回は、元画像からテキスト指示で画像を編集できるQwen Image Editを試してみました。 例によって、差分の画像をStart-Endにフレーム指定して動画を作るのに便利、という動機からです。 まずは元画像としていつものようにAnim4gineで画像を用意します(2枚目)。 これを3枚目の画像のようにしてQwen Image Editのワークフローにセットします。 プロンプトとしては、「背景だけをフォトリアルな森の画像に差し替えてください」みたいな自然文をgoogle翻訳で英語にしたものを使ってみました(4枚目)。 今度は4枚目の画像を元にして、「キャラクターを削除して背景だけにしてください」とすると、5枚目のような森の風景だけの画像になりました。消しゴムマジックみたいなことができますね。 さらに「キャラクターを削除するけど、線画だけは残してくれ」としてみたのが6枚目で、そこから「背景を夜にして、線画を光らせてくれ」としたのが1枚目、といった感じです。 nano bananaほど指示がきれいに反映されるというわけではなく、融通が利かないところもあるんですが、これをローカルのPCで使い放題というのは結構楽しいです。 いろいろ試してみたくなりますね。
6
035:Anytestの使い方
全体公開
Wan2.2で動画を作るときにはポーズ差分の画像があるとStart-Endでフレーム指定で安定した動画が生成できるので、最近はポーズ差分画像をどう作るかをいろいろ試しています。 nano bananaは強力なのですが、制約があったり絵柄がnano banana絵柄に寄ったりするので他の手段も試している、というか。 私がメインで使っている画像生成モデルはAnimagine4なので、Controlnetでポーズ指定するという手が使えます。 SDXL系のControlnetとしてはAnytestという強力なブツがあるので、それを試してみました。 まずは2枚目のような、大雑把な構図指定画像を手描きします。これはClip Studio Paintでマウスでちょいちょいと5分程度で描いた代物で、「まあなんとなく言いたいことは分かる」レベルのものかな、と思います。 この構図指定画像を参照画像として設定しているのが3枚目の画像で、Anytestを使うためのComfyUIワークフローです。このワークフローで画像を生成したのが1枚目です。なんとなくそれっぽくはなっている気がしますね。 ↓プロンプトはこんな感じにしています。 1girl, _, from _, blonde long hair, blue eyes tareme, forehead, pointy ears large breast, groin tendon slim bod, single-shoulder long magical black robe, bra strap, mini skirt under robe frill skirt, contrapposto, water wave background, smile, (glitter magic circle effect:1.2) from hand, blue water effect, pure clear realistic water, splash water around wind blowing さて、Anytestですが、結構いろいろなことができる「万能Controlnet」と言われていて、例えば4枚目の画像の真ん中の部分を黒塗りでつぶして(5枚目)これを参照画像として渡すと、1枚目の画像のポーズを変更することができたりもします(6枚目)。 1枚目の画像と6枚目の画像を動画のStart-Endフレームに指定すれば、なんとなく水魔法を使っているエルフ姉さんの動画ができるような気がしますね! とまあこんな感じに便利なControlnet「Anytest」ですが、月須和さんがHuggingFaceで公開してくれています。ありがたいですね。 https://huggingface.co/2vXpSwA7
3
034:InfiniteTalkで読み上げ動画を作る
全体公開
前回はWan2.2のS2Vモデルを使って、セリフ音声と画像から、読み上げ動画を作りましたが、今回はセリフ音声と動画から、読み上げ動画を作ってみます。 前回のはWan2.2 S2Vで1枚の画像から動画を生成したのですが、口元以外の箇所はあまり動かないというか、ほぼ口パク動画、みたいな感じでした。 今回は人物がなにか動いている動画をもとに、口元をセリフに合わせて口パクさせるというもので、動きのある読み上げ動画を作る場合はこちらの方が良いようです。 こういった手法はVideo to Video(V2V)と呼ばれているようですね。 読み上げのためのV2VにはInfiniteTalkを用いてみました。 InfiniteTalkはまだWan2.2には対応していないので、Wan2.1と組み合わせて使ってみています。 2枚目の画像がInfiniteTalkを使うためのComfyUIのワークフローで、画面下の方で元となる動画(1枚目)を指定しています。 セリフ音声は上の方(音声を読み込む、のところ)に指定してみています。 3枚目もワークフローの一部で、真ん中のあたりにプロンプトを指定しています。この手法の場合、キャラクターの見た目も動きも動画で指定しているので、プロンプトは簡単に「The woman turns to me, stretches her body, and speaks with a smile.」(その女性は私の方を向き、体を伸ばして、笑顔で話します)としました。 あとは実行すると、セリフ音声に合わせて口元の動きが調整されます。
3
033:Wan22 S2Vで読み上げ動画を作る
全体公開
今回はWan2.2のS2Vモデルを使って、セリフ音声と画像から、読み上げ動画を作ってみました。 S2Vは、音声からそれに合った動画を生成するものですが、元画像を指定するとそれをもとにI2Vのように画像に沿った動画を生成してくれます。 前回使った魔法少女画像の顔アップ(2枚目)を元画像に指定し、音声として「魔法少女Muacca、いつもみんなと楽しく、ですです」という読み上げ音声を指定してできたのが1枚目の動画です。 残念ながらちちぷいには音声付の動画は投稿できないので、口パクだけになってしまいますが、元画像のキャラがなにかしゃべっている感じになっているのは分かるかと思います。 Wan2.2 S2Vですが、UIとしては公式から配布されているComfyUIワークフローを用いて実行しました(3枚目)。 基本的にはデフォルト値のままで使うのがいいようです。 ちなみに16fpsが指定されているのですが、これを30fpsとかにすると音声と口パクがズレるので、変えないほうが良いようです。fpsを変更したい場合は、生成した動画を別のツールでフレーム補間すればよいと思います。 あと、公式の情報では生成される動画は77フレーム分と書いてあって、これは変更しないほうが良いとのことでした。16fpsだと4秒くらいの動画になるはずなのですが、結果として生成されたのは14秒くらいのものだったので、それがなぜなのかはよくわかりません。投入した音声は4秒くらいだったので、ここに投稿しているものは後ろの無音声部分をカットしてあります。
他のクリエイターの投稿
12
拳で語る
580コイン/月以上支援すると見ることができます
12
🚀 AI漫画制作:ステップバイステップ・メイキング
全体公開
Youtube、Geminiと“ちちぷい“のGemini3Proを使って、爆速で漫画を制作する方法です。 【Step 1】YouTubeから「神回」のネタを探す • ネタの選定: YouTubeのショート動画や切り抜き動画から、自分が「面白い!」「絵にしたい!」と思う神シーンを見つけます。 • ** Geminiへ共有:** その動画のURLをGeminiに貼り付け、内容を解析してもらいます。これがすべての始まりです。 • ポイント: 「この動画の12:00からのシーンを漫画にしたい」など、具体的な秒数を伝えると精度が爆上がりします。 【Step 2】音声入力で「脳内イメージ」を言語化する • Geminiで作ったプロンプトをそのまま使うと、漫画として読みにくかったり起承転結のすっきりしないものが上がってきます。 • 自由な指示: 「セリフはこうして」コマのサイズや位置といった微調整も、会話するように伝えてプロンプトに落とし込んでもらいます。 【Step 3】「ちちぷい」専用プロンプト(呪文)の完成 • 日本語直込みプロンプトの作成: Geminiが「ちちぷい」でそのまま使える日本語セリフ入りの英語プロンプトを作成します。 • 隠し味の追加: 4コマの構成、キャラの配置、効果音を、AIが描きやすい形式に整理します。 【Step 4】「ちちぷい」で生成&フィードバック • AIイラスト生成: 完成したプロンプトを「ちちぷい」に貼り付けて画像を生成します。 • 結果の確認: 出来上がった画像をGeminiに見せて、「ちゃんと隠れててOK!」や「もう少し表情を豊かに」とフィードバックし、納得のいく1枚(1ページ)を仕上げます。 ここに載せているものは、微調整前のボツイラストになります。 みこめっとのオチは、構図のいいものが出るまでガチャしました。 同一プロンプトでも結果ブレでテイストが変わります。
30
シーフスタイルメカガールコーデ
580コイン/月以上支援すると見ることができます
10
チャイナドレスのフ〇ーレン様とフ〇ルンちゃん
全体公開
6
混沌
全体公開
40
魔法少女変身エフェクト【パラパライラスト】
全体公開
これ↓の40枚版 https://www.chichi-pui.com/posts/81919c29-f222-4c14-922e-88c476e1a65a/
8
二人のJK180~186
100コイン/月以上支援すると見ることができます
8
母と娘180~186
100コイン/月以上支援すると見ることができます
明日はきっといい日だ。
全体公開
おやすみなさいませ。
6
202601151【6枚】朝・ご近所の日常
200コイン/月以上支援すると見ることができます
お手軽1/14アンケート
200コイン/月以上支援すると見ることができます
5
20260114【5枚】ピンクのビキニとスタジャン風カーディガンの女性(牛乳瓶)
200コイン/月以上支援すると見ることができます
39
美m009
全体公開
12
PEGASUSさんシリーズ 9
全体公開
PEGASUSさんの34~45までです。 思い出すと懐かしいですね…。
19
正義執行魔法
全体公開
アニメイラスト19枚 「魔法使い」で色々と作ったものです。
6
赤のパターン
全体公開