RTX 5090環境でのZ-Image Base + AI Toolkit LoRA生成テスト記録

RTX 5090環境でのZ-Image Base + AI Toolkit LoRA生成テスト記録

最近は仕事が立て込んでいて、なかなかモデル検証に時間を割けていませんでした。 それでも合間を見ていくつかのモデルを触ってみたところ、Z-Image系の出力が思った以上に良かったので、備忘録も兼ねてまとめておこうと思います。 生成結果のサンプル 全体的に見て、第一印象は「かなり安定している」というもの。 特に肌の表現が自然で、違和感の少ない仕上がりになる点が印象的でした。 結論(まとめ) 今回の検証をざっくりまとめると、以下のようになります。 つまり、 👉「雰囲気・質感重視ならZ-Image」 👉「厳密なキャラ再現なら他モデル(Wanなど)」 という棲み分けがしっくりきます。 実行環境と生成速度 今回の検証環境は以下の通りです。 この構成で、 👉 1枚あたり約40秒という結果でした。 正直なところ、 このクラスのモデルとしては「悪くない速度感」です。 極端に速いわけではないですが、 品質とのバランスはかなり良好だと感じました。...

AI Toolkit comfyui LoRAトレーニング Z-Image
RTX 5090 で Musubi-Tuner をインストールし、Wan 2.2 の LoRA の作成方法

RTX 5090 で Musubi-Tuner をインストールし、Wan 2.2 の LoRA の作成方法

1. はじめに Wan 2.2 は静止画でも動画でも他モデルを上回る仕上がりを見せます。これまで flux 系のモデルを多く作ってきましたが、人物の一貫性を保つため、今回は Wan 2.2 を試してみました。 環境は メモリ 64GB/GPU:RTX 5090(VRAM 32GB)。学習にかかった時間は以下の画像のとおりです。 先に結論:高ノイズ/低ノイズの特性が異なるため、モデルは高ノイズ用と低ノイズ用をそれぞれ学習します(= 従来と違い 2 回学習)。 1...

LoRAトレーニング Musubi-Tuner Wan 2.2
Google ColabでFlux LoRAモデルをトレーニングの実践手順紹介!

Google ColabでFlux LoRAモデルをトレーニングの実践手順紹介!

はじめに Comfyuiで、LoRAモデルの重要性はますます高まっています。特にFluxモデルでのLoRAトレーニングは、個性的なキャラクターや独特なアーティスティックスタイルを再現するために欠かせない技術となっています。 私は自宅にRTX 5090を所有していますが、LoRAモデルのトレーニングにおいてGoogle Colabを選択している理由があります。RTX 5090は間違いなく強力なGPUですが、消費電力が非常に高く、長時間のトレーニングセッションでは電気代が気になります。さらに、数時間連続で動作させると発熱も相当なものになり、負荷が心配になります。 そこで、Google ColabのA100 GPUを活用することで、これらの問題を解決しながら効率的にLoRAモデルをトレーニングする方法をご紹介します。 Ⅰ:写真選択 数量15ー50 キャラクターLoRAの場合 キャラクターLoRAを作成する際の写真選択は、最終的な品質を決定する最も重要な要素の一つです。以下の基準を厳密に守ることで、原人物に非常に近いLoRAモデルを作成できます。 背景除去の重要性 まず、すべての写真から背景を完全に除去し、人物のみを残すことが重要です。背景が残っていると、モデルが人物の特徴ではなく背景の要素を学習してしまう可能性があります。この作業は手間がかかりますが、最終的な品質に大きく影響するため妥協できません。 comfyuiで背景を除去方法: https://shiokoto.com/archives/72 解像度とサイズの最適化 写真の解像度は可能な限り高品質を維持し、理想的には1024×1024ピクセルのサイズに統一します。これより小さいサイズでも訓練は可能ですが、あまりに小さすぎたりぼやけた写真は避けるべきです。解像度が低い写真を使用すると、生成される画像の品質も低下してしまいます。 多角度撮影の重要性...

Flux LoRA Google Colab LoRAトレーニング