『NovelAI Diffusion Anime V3』アップグレードされた知識、一貫性と空間理解力に優れたモデル:手の描画能力向上著しく

AI画像モデルの進化:V3の特徴

最新のAI画像モデル「NovelAI Diffusion Anime V3」は、前モデルのV2と比較して、著しく進化しています。

このモデルは、優れた知識、一貫性、空間理解力を持ち、特に手の描画能力が顕著に向上しています。

SDXLと独自の隠し味がベース

NovelAIの最新モデルは、StabilityAIのSDXLモデルを基盤とし、独自の工夫を加えています。

例えば、SDXLよりも暗いシーンを生成するのが簡単です。

また、CoreWeaveの高性能H100 GPUクラスタShoggyを利用し、アニメスタイルの徹底したトレーニングを行っています。

プロンプトガイダンスの再調整

このモデルは、前モデルよりも低いプロンプトガイダンス値(5〜6)で動作します。

新しい「プロンプトガイダンスの再調整」オプションは、画像の品質を損なうことなく、より高いプロンプトガイダンス値を使用できるようにします。

コントロール不能な要素

残念ながら、このモデルは少し制御不能な面があります。

Stable Diffusion XLのモデルを修正したため、ControlNetを完全に作り直さなければならず、V3はControlNetをサポートせずにリリースされました。

タグの提案を更新

タグサジェスト機能が更新され、新しい品質と美学のタグが追加されました。

また、各タグの後に表示されるタグ知識インジケータが、新しいV3モデルの機能に合わせて再調整されました。

ランダム・プロンプト生成機能

画像生成の際に何を生成するか思いつかない時のために、ランダム・プロンプト生成機能が追加されました。

これにより、インスピレーションを得ることができます。

新しいインペイントモデル

SDXLベースの新しいV3モデルに基づいて、新しいインペイントモデルもトレーニングされています。

これにより、画像の特定部分を変更したり、修正したりすることが可能です。

Anlasの購入

NovelAIの通貨Anlasは、サブスクリプションがなくても購入可能になりました。

サブスクリプションを持っている方は、割引価格で購入できます。

まとめ

NovelAI Diffusion Anime V3は、その進化した機能と新しいオプションにより、アニメAI画像モデルの新たな可能性を広げています。

制御の難しさやControlNetのサポート不足などの課題もありますが、全体として大きな進歩を遂げています。

コメント

タイトルとURLをコピーしました