
By gerogero
Updated: February 7, 2026
この文書は、包括的で完全かつ最新の、NoobAI-XL モデルへの導入を提供します。
NoobAI-XL は、Laxhar Dream Lab によって開発されたテキストから画像への拡散モデルで、Lanyunによってスポンサーされています。
モデル証明書はfair-ai-public-license-1.0-sd から継承されており、いくつかの制限があります(詳細はNoobAI-XLモデル証明書を参照してください)。このモデルはSDXLのモデルアーキテクチャに基づいています。ベースモデルはIllustrious-xl-early-release-v0 モデルです。約1300万枚の画像からなる完全なDanbooru およびe621 データセットで、多くのラウンドにわたってトレーニングされ、豊富な知識と優れたパフォーマンスを持っています。
NoobAI-XLは膨大な知識を持ち、数万の2Dキャラクターやアーティストのスタイルを復元し、多くの特別な概念を認識し、豊富なファーリーナレッジを持っています。
NoobAI-XLはノイズ予測(またはエプシロン予測)とV予測の両方のバージョンを提供します。簡単に言うと、ノイズ予測バージョンはより多様で創造的な画像を生成し、V予測バージョンはプロンプトに従い、より広い色域と強いライティングの画像を生成します。
NoobAI-XLは、さまざまなLoRA、ControlNet 、IP-Adapter など、ますます豊富なエコシステムコミュニティサポートを提供しています。
NoobAI-XLには、主にノイズ予測とV予測の一連のモデルが含まれており、詳細は後で説明します。
このセクションを読む前に、読者は、WebUI 、ComfyUI 、forge またはreForge のような、あらゆる種類の生画像UIの基本的な使用法を理解している必要があります。そうでなければ、読者はこちら またはインターネット(Bilibiliなど)から学ぶ必要があります。
どのモデルをダウンロードすればよいかわからない場合は、こちらを参照してください。
NoobAI-XLモデルは、ノイズ予測(エプシロン予測、略してeps-pred)モデルとV予測(v-予測、略してv-pred)モデルの2つのカテゴリに分かれています。「eps」、「エプシロン-pred」または「eps-pred」という言葉が名前に含まれているモデルはノイズ予測モデルで、他のモデルと大きな違いはありません。使用する場合は、このセクションを直接スキップできます。「v」または「v-pred」という言葉が名前に含まれているモデルはV予測モデルで、ほとんどの従来のモデルとは異なります。このセクションのインストールガイドを注意深く読んでください!V予測モデルの原理についてはこの記事で確認できます。
V予測は比較的珍しいモデルトレーニング技術です。この技術を使用してトレーニングされたモデルはV予測モデルと呼ばれます。ノイズ予測と比較して、V予測モデルはヒントに対する従順さが高く、色域が広く、光と影が強いことで知られています。これはNovelAI Diffusion V3 やCOSXL で表されます。遅れて登場し、このタイプのモデルが少ないため、一部の主流のグラフィックプロジェクトやUIは直接サポートしていません。したがって、V予測モデルを使用する予定がある場合は、追加の操作が必要です。このセクションでは、その具体的な使用法を紹介します。使用中に困難に直面した場合は、直接モデルの著者に連絡して助けを求めることもできます。
Forge とreForge は、それぞれlllyasviel とPanchovix によって開発された2つのAI画像生成UIで、どちらもWebUIの拡張版です。彼らのメインブランチはV予測モデルをサポートしており、操作モードはWebUIとほぼ同じなので推奨されます。どちらかをインストールしている場合は、そのインストールディレクトリでgit pull を実行して更新し、再起動するだけです。まだインストールしていない場合は、オンラインチュートリアルを参照してインストールと使用を行ってください。
ComfyUI は、comfyanonymous によって開発された画像生成UIで、ユーザーがノードを自由に操作できるように設計されています。その柔軟性と専門性から名付けられました。V予測モデルを使用するには、追加のノードを追加するだけで済みます。
WebUIは、stable-diffusion-webui というプロジェクトで、AUTOMATIC1111 によって開発されました。現在、WebUIのメインブランチはV予測モデルをサポートしておらず、devに切り替える必要があります。この方法は不安定であり、バグが発生する可能性があります。不適切な使用はWebUIに取り返しのつかない損害を与える可能性があるため、事前にバックアップを取ってください。具体的な方法は以下の通りです:
git checkout dev を入力し、Enterを押します。Diffusers は、Pythonの拡散モデル専用ライブラリです。この使用法は、ユーザーに一定のコード基盤を必要とし、開発者や研究者に推奨されます。コード例:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XLはプロンプトワードに対して厳しい要件はなく、この記事で推奨されるアクションはおまけに過ぎません。
NoobAI-XLは、ユーザーがタグをプロンプトとして使用して、望ましいコンテンツを追加することを推奨します。各タグは英語の単語またはフレーズで、英語のカンマ「,」で区切られています。Danbooruやe621から直接取得したタグは、より強い効果があります。さらなる改善については、プロンプト仕様 を後で参照してください。
常に美的タグ「very awa」 と品質タグ「masterpiece」をプロンプトに追加することをお勧めします。
NoobAI-XLは、高忠実度のキャラクターやアーティストスタイルの生成をサポートしており、どちらもタグによってトリガーされます。これを「トリガーワード」と呼びます。その中で、キャラクターのトリガーワードはキャラクター名であり、アーティストスタイルのトリガーワードはアーティストの名前です。完全なトリガーワードテーブルはnoob-wiki からダウンロードできます。トリガーワードの詳細な説明は以下 で確認できます。
NovelAIと同様に、NoobAI-XLは、品質、美的、創作年、創作期間、安全評価などの特別なタグをサポートしています。興味のある読者は、以下のテキスト で詳細な紹介を確認できます。
以下の表では、3つの生成パラメータを推奨します:サンプラー 、サンプリングステップ 、およびCFGスケール 。太字 は強く推奨され、赤字の太字 は厳しい要件です。これら以外のパラメータ値を使用すると、予期しない効果が生じます。
| バージョン番号 | すべてのノイズ予測バージョン | V予測1.0バージョン | V予測0.9rバージョン | V予測0.75sバージョン | V予測0.65sバージョン | V予測バージョン0.6 | V予測バージョン0.5 | V予測ベータ |
| 推奨パラメータ | サンプラー:Euler A CFG:5〜7 サンプリングステップ:28〜35 | サンプラー:Euler CFG:3.5〜5.5 サンプリングステップ:32〜40サンプラー:Euler A CFG:3〜5 サンプリングステップ:28〜40 | サンプラー:Euler CFG:3.5〜5.5 サンプリングステップ:32〜40サンプラー:Euler A CFG:3〜5 サンプリングステップ:28〜40 | サンプラー:Euler A CFG:3〜5 サンプリングステップ:28〜40 | サンプラー:Euler AまたはEuler CFG:3.5〜5.5 サンプリングステップ:32〜40サンプラー:Euler A CFG:5〜7 サンプリングステップ:28〜40 | サンプラー:Euler CFG:3.5〜5.5 サンプリングステップ:28〜35 | サンプラー:Euler CFG:3.5〜5.5 サンプリングステップ:28〜40 | サンプラー:Euler A CFG:5〜7 サンプリングステップ:28〜35 |
V予測モデルに対して、以下のパラメータを推奨します:(i)色、ライティング、詳細を最適化する;(ii)過剰飽和や過剰露出の影響を排除する;(iii)意味理解を強化する。
生成された画像の解像度(幅 x 高さ)は重要なパラメータです。一般的に、建築的理由から、NoobAI-XLを含むすべてのSDXLモデルは、最良の効果を得るために特定の解像度を使用する必要があります。それ以上でもそれ以下でも許可されず、そうでない場合、生成された画像の品質が低下します。NoobAI-XLの推奨解像度は以下の表に示されています:
| 解像度(W x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| 比率 | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
より大きな面積の解像度を使用することもできますが、これは安定していません。(SD3の研究によると、生成された面積が元の$$$の倍数になると、モデルの不確実性も元の$$k^$$の倍数になります。)生成された画像の面積は元の1.5倍を超えないことをお勧めします。たとえば、1024×1536。
モデルに興味があり、さらに学びたい場合、このセクションではモデルの使用に関する詳細なガイドを提供します。
NoobAI-XLには、シリーズのための複数の異なるバージョンのベースモデルが含まれています。以下の表は、各バージョンの特徴を要約しています。
| バージョン番号 | 予測タイプ | ダウンロードリンク | イテレーション開始 | バージョンの特徴 |
| Early-Access | ノイズ予測 | CivitAIHuggingface | Illustrious-xl-early-release-v0 | 最も早いバージョンですが、すでに十分なトレーニングがあります。 |
| Epsilon-pred 0.5 | ノイズ予測 | CivitAIHuggingface | Early-Access | (推奨)最も安定したバージョンで、唯一の欠点は obscureな概念の知識が不足していることです。 |
| Epsilon-pred 0.6 | ノイズ予測 | Huggingface | Early-Access 0.5 | (推奨)UNetのみのトレーニングの最後のバージョンで、優れた収束効果があります。テストチームは「178000」と呼ばれ、多くの人に好まれています。 |
| Epsilon-pred 0.75 | ノイズ予測 | CivitAIHuggingface | Epsilon-pred 0.6 | テキストエンコーダー(TTE)がより多くのobscureな知識を学ぶためにトレーニングされましたが、品質パフォーマンスが低下しました。 |
| Epsilon-pred 0.77 | ノイズ予測 | Huggingface | Epsilon-pred 0.75 | Epsilon-pred 0.75の基礎の上にさらに2エポックトレーニングされ、パフォーマンスの低下が改善されました。 |
| Epsilon-pred 1.0 | ノイズ予測 | CivitAIHuggingface | Epsilon-pred 0.77 | (推奨)新しい知識を強化するために追加の10ラウンドのトレーニングを行い、パフォーマンスのバランスを取ります。 |
| Pre-test | V予測 | CivitAIHuggingface | Epsilon-pred 0.5 | (推奨しません)V予測の初期実験バージョンです。 |
| V-pred 0.5 | V予測 | CivitAIHuggingface | Epsilon-pred 1.0 | (推奨しません)高飽和の問題があります。 |
| V-pred 0.6 | V予測 | CivitAIHuggingface | V-pred 0.5 | (推奨しません)初期評価結果に基づき、V-pred0.6は稀な知識のカバレッジで優れたパフォーマンスを発揮し、現在公開されているモデルの中で最高のレベルに達しています。同時に、モデルは品質低下の問題を大幅に改善します。 |
| V-pred 0.65 | V予測 | Huggingface | V-pred 0.6 | (推奨しません)飽和の問題があります。 |
| V-pred 0.65s | V予測 | CivitAIHuggingface | V-pred 0.6 | 飽和問題はほぼ解決されました!しかし、アーティファクトの問題があります。次のバージョンで解決される予定です。 |
| Epsilon-pred 1.1 | ノイズ予測 | CivitAIHuggingface | Epsilon-pred 1.0 | (推奨)平均明るさの問題が解決され、すべての面で改善されました。 |
| V-pred 0.75 | V予測 | Huggingface | V-pred 0.65 | (推奨しません)飽和の問題があります。 |
| V-pred 0.75s | V予測 | CivitAIHuggingface | V-pred 0.65 | (推奨)極端な状況での飽和、残留ノイズ、アーティファクトの問題を解決します。 |
| V-pred 0.9r | V予測 | CivitAI | V-pred 0.75 | 約10%のリアリズムデータでトレーニングされました。劣化があります。 |
| V-pred 1.0 | V予測 | CivitAI | V-pred 0.75 | (推奨)品質/パフォーマンス/色のバランスが最も良いです。 |
| 予測タイプ | ControlNetタイプ | リンク | 前処理タイプ | 備考 |
| ノイズ予測 | Hedソフトエッジ | CivitAIHuggingface | softedge_hed | |
| ノイズ予測 | アニメ線画 | CivitAIHuggingface | lineart_anime | |
| ノイズ予測 | Midasノーマルマップ | CivitAIHuggingface | normal_midas | |
| ノイズ予測 | Midas深度マップ | CivitAIHuggingface | depth_midas | |
| ノイズ予測 | Canny輪郭 | CivitAIHuggingface | canny | |
| ノイズ予測 | Openpose人間骨格 | CivitAIHuggingface | openpose | |
| ノイズ予測 | マンガ線 | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| ノイズ予測 | リアルな線画 | CivitAIHuggingface | lineart_realistic | |
| ノイズ予測 | Midas深度マップ | CivitAIHuggingface | depth_midas | 新しいバージョン |
| ノイズ予測 | HEDスクリブル | CivitAIHuggingface | scribble_hed | |
| ノイズ予測 | Pidinetスクリブル | CivitAIHuggingface | scribble_pidinet | |
| ノイズ予測 | タイル | CivitAIHuggingface | tile |
ControlNetを使用する際は、使用している前処理器のタイプをControlNetが要求する前処理器のタイプと一致させる必要があります。さらに、ベースモデルの予測タイプとControlNetの予測タイプを一致させる必要はないかもしれません。
近日公開予定。
ほとんどのLoRAは、ノイズ予測とV予測の両方のバージョンで使用でき、逆もまた然りです。
まず第一に、プロンプトの役割はガイドであることを明確にする必要があります。良いプロンプトはモデルの潜在能力を引き出すことができますが、悪いまたは誤ったプロンプトは必ずしも結果を悪化させるわけではありません。異なるモデルには異なる最適なプロンプトの使用法があり、誤用の影響はしばしば明白ではなく、場合によっては改善されることさえあります。このプロンプトガイドは、理論的なモデルの最良のプロンプトエンジニアリングを記録しており、能力のある読者は自由に使用できます。
このセクションでは、プロンプトの書き方に関する詳細なガイドを提供します。プロンプトの書き方の基準、役割とスタイルのトリガーワードの具体的な使用法、特別なタグの使用法などが含まれます。プロンプトエンジニアリングに興味のある読者は、選択的に読むことができます。
NoobAI-XLは、他のアニメ風ベースモデルと同じプロンプト仕様を持っています。このセクションでは、プロンプトの基本的な書き方の仕様を体系的に紹介し、読者がコミュニティ内の一般的な誤解を排除するのを助けます。
フォーマットに応じて、プロンプトは大きく2つのカテゴリに分けられます:タグ と自然言語。前者は主にアニメモデルで使用され、後者は主に実生活モデルで使用されます。どちらのプロンプトでも、モデルが特に指定しない限り、英字、数字、記号のみを含むべきです。
タグは小文字の英単語またはフレーズで構成され、英語のカンマ「,」で区切られます。たとえば、「1girl, solo, blue hair」は3つのタグ「1girl」、「solo」、「blue hair」を含んでいます。
プロンプト内の余分なスペースや改行文字は、実際の生成効果に影響を与えません。言い換えれば、「1girl, solo, blue hair」と「1girl, solo, blue hair」は全く同じ効果を持ちます。
プロンプトにはアンダースコア「_」を含めるべきではありません。Danbooruなどのウェブサイトの影響で、タグ間のスペースの代わりにアンダースコア「_」を使用することが広まっていますが、これは実際には誤用であり、生成結果がスペースを使用した場合とは異なる結果を引き起こします。NoobAI-XLを含むほとんどのモデルは、プロンプトにアンダースコアを含めることを推奨していません。この誤用は、生成の質に悪影響を及ぼす可能性があり、最悪の場合、トリガーワードが完全に無効になることさえあります。
必要に応じて括弧をエスケープしてください。括弧(丸括弧()、角括弧[]、波括弧{}を含む)は、プロンプト内で非常に特別な記号です。一般的な記号とは異なり、ほとんどの画像生成UIでは、括弧は特定のコンテンツの重み付けとして解釈され、重み付けに参加する括弧はその元の意味を持ちません。しかし、元のプロンプトに括弧を含める必要がある場合、たとえば一部のトリガーワードの場合、括弧の前にバックスラッシュ「\」を追加することで、括弧の重み付け機能を排除できます。この文字の元の意味を変更する操作はエスケープと呼ばれ、バックスラッシュもエスケープ文字と呼ばれます。たとえば、バックスラッシュを使用してエスケープしない場合、プロンプト「1girl, ganyu ( genshin impact ) 」は「1girl, ganyu genshin impact」と誤って解釈され、「genshin impact」が重み付けされ、括弧が消えます。エスケープ文字を追加することで、プロンプトは「1girl, ganyu \ ( genshin impact \) 」となり、期待通りになります。
要するに、タグの標準化は2つのステップに分かれます:(i)各タグのアンダースコアをスペースに置き換え、(ii)括弧の前にバックスラッシュ「\」を追加します。
Danbooruやe621から直接取得したタグは、より強い表現効果を持ちます。したがって、自分でタグを作成するのではなく、読者にはこれら2つのウェブサイトで直接タグを検索することをお勧めします。なお、直接この方法で取得したタグはアンダースコア「_」で区切られ、括弧はエスケープされていません。したがって、それらからのタグにヒントを追加する前に、タグ内のスペースを削除し、括弧をエスケープする必要があります。たとえば、Danbooruからのタグ「ganyu_ (genshin_impact) 」は、使用前に「ganyu\ (genshin impact\) 」として扱います。
無効なメタタグを使用しないでください。メタタグ(メタタグ )は、画像ファイルや作品自体の特徴を示すためにDanbooruで使用される特別なタイプのタグです。たとえば、「highres 」は画像が高解像度であることを示し、「oil_painting_ (medium) 」は画像が油絵のスタイルであることを示します。しかし、すべてのメタタグが画像の内容や形式に関連しているわけではありません。たとえば、「commentary_request 」はDanbooruの投稿が作品の翻訳リクエストを持っていることを示しており、作品自体とは直接の関係がないため、効果がありません。
連続したキーワードの方が良いです。NoobAI-XLは、プロンプトを論理的な順序で書くことを推奨します。主なものから副次的なものへ。可能な書き方の順序は以下の通りです、参考までに:
< 1girl/1boy/1other/female/male/… >, < キャラクター >, < シリーズ >, < アーティスト(複数) >, < 一般的なタグ >, < その他のタグ >, < 品質&美的タグ >
その中で、< 品質&美的タグ >はプレフィックスを付けることができます。
自然言語プロンプトは文で構成され、各文は大文字で始まり、ピリオド「.」で終わります。NoobAI-XLを含むほとんどのアニメモデルはタグの理解が優れているため、自然言語は通常、プロンプトの主要な要素ではなく、補助的に使用されます。
NoobAI-XLは、多くのファンメイドのキャラクターやアーティストスタイルの直接生成をサポートしています。キャラクターとスタイルは名前によってトリガーされ、これもトリガーワードと呼ばれます。Danbooru やe621 で直接検索し、得られたタグを標準化してプロンプトとして使用できます。
キャラクターとアーティストのトリガー方法にはいくつかの違いがあります。
以下の表は、キャラクターとスタイルのトリガーの正しいケースと誤ったケースを示しています:
| タイプ | プロンプトワード | 正しいか間違っているか | 理由 |
| 役割 | レイ・アヤナミ | 間違い | キャラクター名は「ayanami rei 」であるべきです。シリーズタグ「neon genesis evangelion 」が追加されていません。 |
| 役割 | character:ganyu \(genshin impact\), genshin impact | 間違い | プレフィックス「character:」が表面的に追加されています。 |
| 役割 | ganyu_\(genshin impact\) | 間違い | 完全に正規化されたタグがありません:アンダースコアを含むべきではありません。シリーズタグが追加されていません。 |
| 役割 | ganyu (genshin impact), genshin impact | 間違い | 完全に正規化されたタグがありません:括弧がエスケープされていません。 |
| 役割 | ganyu (genshin impact\), genshin impact | 間違い | 完全に正規化されたタグがありません:左括弧がエスケープされていません。 |
| 役割 | ganyu \(genshin impact\),genshin impact | 間違い | 中国語のカンマで2つのタグを分けています。 |
| 役割 | ganyu \(genshin impact\), genshin impact | 正しい | |
| アーティストスタイル | by wlop | 間違い | プレフィックス「by」が表面的に追加されています。 |
| アーティストスタイル | artist:wlop | 間違い | プレフィックス「artist:」が表面的に追加されています。 |
| アーティストスタイル | dino | 間違い | アーティスト名が間違っています。aidxl/artiwaifuのアーティスト名は使用せず、Danbooruに従うべきです。したがって、「dino\ (dinoartforame\) 」であるべきです。 |
| アーティストスタイル | wlop | 正しい |
便利のために、noob-wiki に完全なトリガーワードの形式を提供していますので、参考にしてください:
| テーブルタイプ | ダウンロードリンク |
| Danbooruキャラクター | ここをクリック |
| Danbooruアーティストスタイル | ここをクリック |
| E621キャラクター | ここをクリック |
| E621アーティストスタイル | ここをクリック |
これらの形式には、Danbooruやe621のデータベースからのトリガーワードテーブルが含まれています。テーブルの各行はキャラクターまたはアーティストスタイルを表します。希望するキャラクターまたはアーティストスタイルに対応する行を見つけ、その「トリガー」セクションをコピーしてプロンプトワードとしてそのまま貼り付けるだけです。キャラクターやアーティストスタイルに不明な点がある場合は、「url」列のリンクをクリックして、ウェブサイト上の例の図を表示することもできます。以下の表は、各列の意味を説明しています。すべてのテーブルがすべての列を含むわけではありません。
| リスト | 意味 | 備考 |
| キャラクター | 対応するウェブサイトでの役割のタグ名。 | |
| アーティスト | 対応するウェブサイトでのタグ名のアーティストスタイル。 | |
| トリガー | 標準化された後のトリガーワード。 | そのままコピーしてプロンプトワードとして使用します。 |
| カウント | このタグの画像数。 | この概念の復元の期待度として。キャラクターの場合、カウントが200を超えると、より良く復元される可能性があります。スタイルの場合、カウントが100を超えると、より良く復元される可能性があります。 |
| url | 元のウェブサイトのタグページ。 | |
| solo_count | このタグを持つデータセット内の画像数で、画像内に1つのキャラクターのみが含まれています。 | 役割テーブルのみ。役割の場合、solo_countが50を超えると、より良く復元される可能性があります。カウントによって減少度を判断する場合、カウント列の偏差が大きく、精度が低いため、solo_countはより正確な指標です。 |
| core_tags | キャラクターのコア特徴タグには、外見、性別、衣服が含まれます。英語のカンマで区切られ、各タグは標準化されています。 | Danbooruキャラクターリストのみ。人気のないキャラクターがトリガーされ、その復元度が不十分な場合、いくつかのコア特徴タグを追加して復元度を高めることができます。 |
特別なラベルは、特別な意味と効果を持つラベルの一種で、補助機能を果たします。
品質タグは、実際にはDanbooruやe621のユーザーの好みに基づく統計データから得られた人気タグです。品質の順序は高いものから低いものへ:
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
美的タグは、美的スコアリングモデルに基づいてスコア付けされます。これまでのところ、2つだけあります。「very awa 」と「worst aesthetic 」。前者は、waifu-scorer-v3 とwaifu-scorer-v4-beta のスコアが上位5%に入るデータであり、後者は下位5%のデータです。very awaと名付けられたのは、その美的基準がA rti Wa ifu Diffusion モデルに似ているためです。さらに、まだトレーニング中で明確な効果がない美的タグ「very as2」があり、これは「aesthetic-shadow-v2-5 」のスコアが上位5%のデータです。
美的ラベルの効果の比較
安全/評価タグは4つあります:一般 、敏感 、nsfw およびexplicit 。
ユーザーが不適切なコンテンツをフィルタリングするために、ネガティブプロンプトに「nsfw」を意識的に追加することを期待しています。😀
年タグは、作品の創作年を示すために使用され、品質、スタイル、キャラクターの復元度 などに間接的に影響を与えます。その形式は「year xxxx 」で、「xxxx」は特定の年、たとえば「year 2024」です。
期間タグは、年タグであり、画像の品質にも大きな影響を与えます。タグと年の対応は以下の表に示されています。
| 年範囲 | 2021〜2024 | 2018〜2020 | 2014〜2017 | 2011〜2013 | 2005〜2010 |
| 期間ラベル | 最新 | 最近 | 中間 | 初期 | 古い |
このセクションでは、プロンプトの推奨使用例を参考用に提供します。
以下の推奨スタートポイントは、特別なタグを使用しており、画像品質との相関が最も高いものです。
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
以下の表では、一般的なネガティブタグとその出所を紹介します。すべてのネガティブタグが必ずしも悪いわけではなく、適切に使用することで予期しない効果を得ることができます。