WAN2.2のT2Vモデルで画像生成 – Fluxの「プラスチック肌」問題を解決!

WAN2.2のT2Vモデルで画像生成 – Fluxの「プラスチック肌」問題を解決!

WAN2.2のT2V(Text-to-Video)モデルを使って画像生成を試してみたところ、驚くべき結果が得られました。なんと、Fluxモデルで問題となっていた肌のプラスチック感を完全に解消できたのです! RTX5090での検証結果、効果は特に素晴らしいものでした! 使用モデル wan2.2_t2v_low_noise_14B_fp16.safetensors 使用ノード構成 生成速度 処理時間の内訳は以下の通りです: 処理段階設定所要時間基本生成40ステップ約60秒アップスケール2048×204890秒合計処理時間-150秒 Fluxとの比較優位性 従来のFluxモデルでは、特に人物の肌質表現において「プラスチックのような不自然な質感」が課題となっていました。しかし、WAN2.2のT2Vモデルを使用することで: これらの改善により、画像生成の品質が大幅に向上しました。 ワークフローのダウンロード https://drive.google.com/file/d/102b0Lw9JJ80J8xVnNY08e5d2OMhvPYwX/view?usp=sharing まとめ WAN2.2のT2Vモデルは、従来のFluxモデルの弱点を克服した画期的なモデルです。RTX5090との組み合わせにより、高品質な画像を短時間で生成できる実用的なソリューションとなっています。 特に人物画像の生成において、自然な肌質表現を求めるクリエイターにとって、このモデルは非常に価値のあるツールになるでしょう。 総処理時間150秒で高品質な2048×2048の画像が生成できる効率性も、実用面での大きなメリットです。

comfyui wan2.2
自分で訓練した線画風Flux LoRA- fluxlinesun

自分で訓練した線画風Flux LoRA- fluxlinesun

私は以前からminimalist、線画風のアート作品にとても魅力を感じていました。そのシンプルでありながら表現力豊かな線の美しさに惹かれ、自分でもそのような作品を作ってみたいと思っていました。 LoRAについて https://drive.google.com/file/d/1JeFMQ8JGv0WjOD0V_GynFR1h3VX0YSDL/view?usp=sharing ここから fluxlinesun をダウンロードして!トリガーワード:linesun prompt:change the characters in the photo to line drawings,lineart style,linesun change the subjects in the...

minimalist 線画 線画風Flux LoRA
Kontext LoRAを再訓練しない場合、FLUX-devのLoRAを使ってキャラクターの一貫性を向上させる方法

Kontext LoRAを再訓練しない場合、FLUX-devのLoRAを使ってキャラクターの一貫性を向上させる方法

Kontextは改めてLoRAを訓練し直す必要があるのでしょうか?KontextとFLUX-devのLoRAを組み合わせるとどのような結果が得られるのでしょうか? Kontextとプロンプトを直接使用することでも、ある程度顔の一貫性を持った画像を生成できますが、確実性に欠けます。 ワークフロー 以下のワークフローを使用することで、 https://drive.google.com/file/d/1U8Ci13QfGpEv3upjpdZeC0V1Yk7lyCtQ/view?usp=sharing キャラクターLoRAがKontextと連携し、参考画像のポーズや表情、服装、動作を参照して画像を生成し、結果的に参考画像の顔を差し替える効果を得ることができることが分かりました。 核心原理: テスト結果: 効果があるようです。ポーズや表情は読み込まれた画像を参考にし、顔部分はLoRAを使用しています。 このプロンプトでLoRAトリガーワードを除去した後、スタイルも読み込まれた画像を参考にしました。LoRAトリガーワードを追加した後は、ポーズや表情は読み込まれた画像を参考にし、かつ顔部分はLoRAを使用しています。完璧です。

FLUX Kontext ラクターの一貫性
RTX5090でFlux Kontextモデルの3枚画像を1枚に融合して、素晴らしい!

RTX5090でFlux Kontextモデルの3枚画像を1枚に融合して、素晴らしい!

RTX5090でFlux Kontextモデルの複数画像を1枚に融合するワークフローを試してみましたが、効果は素晴らしいです! ワークフロー: https://drive.google.com/file/d/1Fhdej5no_fn4xZmGuii9jTQvkc5dE2bp/view?usp=sharing プロンプト技法 1枚目と2枚目の画像はキャラクターとアイテムにして、3枚目の画像は背景にするのがベストです。プロンプトには画像内の英語と「in the photo」を含めるのがよく、最後に「background on the right」を付けてください。 マルチ画像融合 一貫した表示効果を確保するため、以下の例では画像とプロンプトを統一して使用します: The woman is holding the gun in...

Flux Kontext Kontext 複数画像融合
FLUX1-KontextがComfyUIに対応!RTX 5090でテスト結果

FLUX1-KontextがComfyUIに対応!RTX 5090でテスト結果

Black Forest Labsが開発したAI画像生成技術の新たな可能性を示す革新的なモデルFLUX1-Kontextが、ついにComfyUIでの利用が可能になりました。今回は、最新のRTX 5090を使用して実際の性能を検証し、効果的なプロンプト技法についても詳しく解説します。 FLUX1-Kontextとは FLUX1-Kontextは、従来のFLUXモデルの進化版として位置づけられる画像生成モデルです。特に画像の編集や変換において優れた性能を発揮し、既存の画像に対して精密な修正や風格変換を行うことができます。このモデルの最大の特徴は、原画像の構図や重要な要素を保持しながら、指定された部分のみを自然に変更できる点にあります。 必要なモデルファイル ComfyUIでFLUX1-Kontextを使用するには、以下のファイルが必要です: Diffusion Model メインとなる拡散モデルは、Hugging Faceから2つの選択肢があります: VAE(Variational Autoencoder) ae.safetensors https://huggingface.co/Comfy-Org/Lumina_Image_2.0_Repackaged/blob/main/split_files/vae/ae.safetensors text encoder Model Storage...

FLUX1-Kontext Kontext
Photoshop不要!ComfyUIでOneクリック完璧無料写真背景消す

Photoshop不要!ComfyUIでOneクリック完璧無料写真背景消す

RMBG-2.0・INSPYRENET・BEN・BEN2の画像切り抜きモデル を徹底比較 背景を瞬時に抜き、被写体だけをくっきり残す――そんな夢のワークフローが、生成 AI ノードベース GUI「ComfyUI」を紹介します。GitHub の 1038lab/ComfyUI-RMBG プラグインを導入すれば、RMBG-2.0・INSPYRENET・BEN・BEN2 の 4 方式をボタン 1 つで試せます。実際に 4 つを検証したところ、筆者環境では INSPYRENET が最も優秀。逆光や複雑な髪の毛も驚くほど自然に切り抜き、頭頂部の細い毛先まで完璧に保持しました。 RMBG プラグインのインストール...

comfyui INSPYRENET 写真背景消す 画像切り抜き