
By gerogero
Updated: February 7, 2026
本文件提供了对 NoobAI-XL 模型的全面、完整和最新的介绍。
NoobAI-XL 是由 Laxhar Dream Lab 开发的文本到图像扩散模型,并由 Lanyun赞助。
模型证书继承自 fair-ai-public-license-1.0-sd ,并有一些限制(请参见 NoobAI-XL 模型证书)。该模型基于 SDXL 的模型架构。其基础模型是 Illustrious-xl-early-release-v0 模型。它在完整的 Danbooru 和 e621 数据集(约 1300 万张图像)上进行了大量轮次的训练,具有丰富的知识和出色的性能。
NoobAI-XL 拥有大量知识,可以恢复数万种 2D 角色和艺术家的风格,识别大量 2D 中的特殊概念,并具有丰富的毛茸茸知识。
NoobAI-XL 提供噪声预测(或称epsilon 预测)和V 预测版本。简而言之,噪声预测版本生成更具多样性和创造性的图像,而 V 预测版本更遵循提示,生成具有更广色域和更强光照的图像。
NoobAI-XL 拥有越来越丰富的生态系统社区支持,包括各种 LoRA、ControlNet 、IP-Adapter 等。
NoobAI-XL 包含一系列模型,主要是噪声预测和 V 预测,具体内容将在后面 详细描述。
在阅读本节之前,读者需要先了解任何原始图像 UI 的基本用法,例如 WebUI 、ComfyUI 、forge 或 reForge 。否则,读者需要从 这里 或从互联网(如 Bilibili 等)学习。
如果您不知道下载哪个模型,可以浏览这里 。
NoobAI-XL 模型分为两类:噪声预测(epsilon 预测,简称eps-pred)模型和 V 预测(v-预测,简称v-pred)模型。名称中带有“eps”、“epsilon-pred”或“eps-pred”的模型是噪声预测模型,与其他模型没有太大区别。如果您使用它们,可以直接跳过本节。名称中带有“v”或“v-pred”的模型是 V 预测模型,与大多数常规模型不同。请仔细阅读本节中的安装指南!V 预测模型的原理可以在这篇文章 中找到。
V 预测是一种相对少见的模型训练技术。使用此技术训练的模型称为 V 预测模型。与噪声预测相比,V 预测模型以对提示的更高遵从性、更全面的色域和更强的光影著称,代表作包括NovelAI Diffusion V3 和COSXL 。由于其出现较晚且此类模型较少,一些主流图形项目和 UI 不直接支持它。因此,如果您计划使用 V 预测模型,您需要进行一些额外的操作。本节将介绍其具体用法。如果在使用过程中遇到任何困难,您也可以直接联系任何模型作者寻求帮助。
Forge 和 reForge 是由 lllyasviel 和 Panchovix 分别开发的两个 AI 图像生成 UI,都是 WebUI 的扩展版本。它们的主分支支持 V 预测模型,操作模式与 WebUI 几乎相同,因此推荐使用。如果您已安装其中之一,只需在其安装目录中运行git pull 更新并重启;如果您尚未安装,可以参考在线教程进行安装和使用。
ComfyUI 是由 comfyanonymous 开发的图像生成 UI,允许用户自由操作节点,以其灵活性和专业性而闻名。使用 V 预测模型只需添加额外的节点。
WebUI 是由 AUTOMATIC1111 开发的项目。目前,WebUI 的主分支不支持 V 预测模型,需要切换到 dev。请注意,这种方法不稳定,可能会有错误。不当使用甚至可能对 WebUI 造成不可逆转的损害。因此,请提前备份您的 WebUI。具体方法如下:
git checkout dev 并按 Enter。Diffusers 是一个专门用于 Python 扩散模型的库。此用法要求用户具备一定的代码基础,建议开发者和研究人员使用。代码示例:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL 对提示词没有硬性要求,本文中推荐的操作只是锦上添花。
NoobAI-XL 建议用户使用标签作为提示,以添加所需内容。每个标签是由英文逗号“,”分隔的英文单词或短语,直接来自 Danbooru 和 e621 的标签效果更强。有关进一步改进,请参见提示规范 。
我们建议始终在您的提示中添加美学标签“very awa”和质量标签“masterpiece”。
NoobAI-XL 支持生成高保真角色和艺术风格,均通过标签触发,我们称之为“触发词”。其中,角色的触发词是其角色名称;艺术风格的触发词是艺术家的名称。完整的触发词表可以从noob-wiki 下载。触发词的详细解释可以在下面 找到。
类似于 NovelAI,NoobAI-XL 支持特殊标签,如质量、美学、创作年份、创作时期和安全评级,用于辅助目的。有兴趣的读者可以在以下文本 中查看详细介绍。
以下表格推荐三种生成参数:采样器、采样步骤和CFG 比例。加粗是强烈推荐;红色加粗是硬性要求。使用其他参数值将带来意想不到的效果。
| 版本号 | 所有噪声预测版本 | V 预测 1.0 版本 | V 预测 0.9r 版本 | V 预测 0.75s 版本 | V 预测 0.65s 版本 | V 预测版本 0.6 | V 预测版本 0.5 | V 预测 Beta |
| 推荐参数 | 采样器:Euler A CFG:5~ 7 采样步骤:28~ 35 | 采样器:Euler CFG:3.5 ~ 5.5 采样步骤:32~ 40采样器:Euler A CFG:3 ~ 5 采样步骤:28~ 40 | 采样器:Euler CFG:3.5 ~ 5.5 采样步骤:32~ 40采样器:Euler A CFG:3 ~ 5 采样步骤:28~ 40 | 采样器:Euler A CFG:3 ~ 5 采样步骤:28~ 40 | 采样器:Euler A 或 Euler CFG:3.5 ~ 5.5 采样步骤:32~ 40采样器:Euler A CFG:5 ~ 7 采样步骤:28~ 40 | 采样器:Euler CFG:3.5~ 5.5 采样步骤:28~ 35 | 采样器:Euler CFG:3.5~ 5.5 采样步骤:28~ 40 | 采样器:Euler A CFG:5~ 7 采样步骤:28~ 35 |
对于 V 预测模型,推荐以下参数以 (i) 优化颜色、光照和细节; (ii) 消除过饱和和过曝的影响;以及 (iii) 增强语义理解。
生成图像的分辨率(宽 x 高)是一个重要参数。一般来说,由于建筑原因,包括 NoobAI-XL 在内的所有 SDXL 模型需要使用特定分辨率以达到最佳效果。不允许多于或少于像素,否则生成图像的质量将会降低。NoobAI-XL 推荐的分辨率如下表所示:
| 分辨率(W x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| 比例 | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
您也可以使用更大的区域分辨率,尽管这并不稳定。(根据 SD3 研究,当生成区域成为原始图像的 $$$$倍数时,模型的不确定性将成为原始 $$k^$$ 的倍数。)我们建议生成图像区域不超过原始图像的 1.5 倍。例如,1024×1536。
如果您对该模型感兴趣并希望了解更多信息,本节提供了使用该模型的详细指南。
NoobAI-XL 包含多个不同版本的基础模型。以下表格总结了每个版本的特征。
| 版本号 | 预测类型 | 下载链接 | 迭代自 | 版本特征 |
| Early-Access | 噪声预测 | CivitAIHuggingface | Illustrious-xl-early-release-v0 | 最早的版本,但已具备足够的训练。 |
| Epsilon-pred 0.5 | 噪声预测 | CivitAIHuggingface | Early-Access | (推荐)最稳定的版本,唯一的缺点是缺乏对晦涩概念的知识。 |
| Epsilon-pred 0.6 | 噪声预测 | Huggingface | Early-Access 0.5 | (推荐)最后一个仅 UNet 训练的版本,具有出色的收敛效果。测试团队称为“178000”,受到许多人喜爱。 |
| Epsilon-pred 0.75 | 噪声预测 | CivitAIHuggingface | Epsilon-pred 0.6 | 文本编码器(TTE)经过训练以学习更多晦涩知识,但质量性能下降。 |
| Epsilon-pred 0.77 | 噪声预测 | Huggingface | Epsilon-pred 0.75 | 在 Epsilon-pred 0.75 的基础上训练了两个轮次,改善了性能下降。 |
| Epsilon-pred 1.0 | 噪声预测 | CivitAIHuggingface | Epsilon-pred 0.77 | (推荐)额外训练 10 轮以巩固 tte 的新知识,性能平衡。 |
| Pre-test | V 预测 | CivitAIHuggingface | Epsilon-pred 0.5 | (不推荐)V 预测的初始实验版本。 |
| V-pred 0.5 | V 预测 | CivitAIHuggingface | Epsilon-pred 1.0 | (不推荐)存在高饱和度的问题。 |
| V-pred 0.6 | V 预测 | CivitAIHuggingface | V-pred 0.5 | (不推荐)基于初步评估结果,V-pred0.6 在稀有知识覆盖方面表现良好,达到目前发布的模型中的最高水平。同时,该模型显著改善了质量下降问题。 |
| V-pred 0.65 | V 预测 | Huggingface | V-pred 0.6 | (不推荐)存在饱和度问题。 |
| V-pred 0.65s | V 预测 | CivitAIHuggingface | V-pred 0.6 | 饱和度问题几乎解决!但存在伪影问题,将在下一个版本中解决。 |
| Epsilon-pred 1.1 | 噪声预测 | CivitAIHuggingface | Epsilon-pred 1.0 | (推荐)已解决平均亮度问题,各方面均有所改善。 |
| V-pred 0.75 | V 预测 | Huggingface | V-pred 0.65 | (不推荐)存在饱和度问题。 |
| V-pred 0.75s | V 预测 | CivitAIHuggingface | V-pred 0.65 | (推荐)解决极端情况下的饱和度、残余噪声和伪影问题。 |
| V-pred 0.9r | V 预测 | CivitAI | V-pred 0.75 | 使用约 10% 的真实数据进行训练。存在降级。 |
| V-pred 1.0 | V 预测 | CivitAI | V-pred 0.75 | (推荐)最佳平衡质量/性能/颜色。 |
| 预测类型 | ControlNet 类型 | 链接 | 预处理器类型 | 备注 |
| 噪声预测 | Hed 软边 | CivitAIHuggingface | softedge_hed | |
| 噪声预测 | 动漫线条 | CivitAIHuggingface | lineart_anime | |
| 噪声预测 | Midas 法线图 | CivitAIHuggingface | normal_midas | |
| 噪声预测 | Midas 深度图 | CivitAIHuggingface | depth_midas | |
| 噪声预测 | Canny 轮廓 | CivitAIHuggingface | canny | |
| 噪声预测 | Openpose 人体骨架 | CivitAIHuggingface | openpose | |
| 噪声预测 | 漫画线 | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| 噪声预测 | 真实线条 | CivitAIHuggingface | lineart_realistic | |
| 噪声预测 | Midas 深度图 | CivitAIHuggingface | depth_midas | 新版本 |
| 噪声预测 | HED 涂鸦 | CivitAIHuggingface | scribble_hed | |
| 噪声预测 | Pidinet 涂鸦 | CivitAIHuggingface | scribble_pidinet | |
| 噪声预测 | 瓷砖 | CivitAIHuggingface | tile |
请注意,在使用 ControlNet 时,您必须将所使用的预处理器类型与 ControlNet 所需的预处理器类型匹配。此外,您可能不需要将基础模型的预测类型与 ControlNet 的预测类型匹配。
敬请期待。
大多数 LoRA 可以同时用于噪声预测和 V 预测版本,反之亦然。
首先,我们需要明确提示的作用是引导。好的提示可以释放模型的潜力,但糟糕甚至错误的提示不一定会使结果变差。不同的模型有不同的最佳提示使用方式,误用的效果往往不明显,在某些情况下甚至可能有所改善。这个提示指南记录了模型的理论最佳提示工程,有能力的读者也可以自由使用。
本节将提供撰写提示的详细指南,包括提示撰写标准、角色和风格触发词的具体用法、特殊标签的使用等。有兴趣的读者可以选择性阅读。
NoobAI-XL 的提示规范与其他类似动漫的基础模型相同。本节将系统介绍提示的基本撰写规范,帮助读者消除社区中的常见误解。
根据不同的格式,提示大致可分为两类:标签和自然语言。前者主要用于动漫模型,后者主要用于现实生活模型。无论哪种提示,除非模型另有说明,否则应仅包含英文字母、数字和符号。
标签由小写英文单词或短语组成,使用英文逗号“,”分隔,例如,“1girl, solo, blue hair”包含三个标签,“1girl”、“solo”和“blue hair”。
提示中的额外空格和换行符不会影响实际生成效果。换句话说,“1girl, solo, blue hair”和“1girl, solo, blue hair”效果完全相同。
提示中不应包含任何下划线“_”。受 Danbooru 等网站的影响,使用下划线“_”代替单词之间的空格作为标签的做法已经传播,这实际上是一种误用,会导致生成结果与使用空格时不同。包括 NoobAI-XL 在内的大多数模型不推荐在提示中包含任何下划线。这种误用在最佳情况下会影响生成质量,最坏情况下甚至会使触发词完全无效。
如有必要,请转义括号。括号,包括圆括号 ()、方括号 [] 和大括号 {},在提示中是非常特殊的符号。与一般符号不同,在大多数图像生成 UI 中,括号被解释为对特定内容的加权,参与加权的括号将不再发挥其原意。但是,如果原始提示需要包含括号,例如某些触发词,该怎么办?答案是通过在括号前添加反斜杠“\”来消除括号的加权功能。改变字符原意的操作称为转义,反斜杠也称为转义字符。例如,如果不使用反斜杠进行转义,提示“1girl, ganyu ( genshin impact )”将被错误解释为“1girl, ganyu genshin impact”,其中“genshin impact”被加权,括号消失。通过添加转义字符,提示变为“1girl, ganyu \ ( genshin impact \)”,如预期。
简而言之,标签标准化分为两个步骤:(i)将每个标签中的下划线替换为空格;(ii)在括号前添加反斜杠“\”。
直接来自 Danbooru 和 e621 的标签具有更强的表达效果。因此,我们建议读者直接在这两个网站上搜索标签,而不是自己创建标签。需要注意的是,直接获得的标签是用下划线“_”分隔的,且括号未被转义。因此,在将提示添加到来自它们的标签之前,您需要去掉标签中的空格并转义括号。例如,将来自 Danbooru 的标签“ganyu_ (genshin_impact) ”视为“ganyu\ (genshin impact\)”后再使用。
不要使用无效的元标签。元标签(元标签 )是 Danbooru 上的一种特殊标签,用于指示图像文件或作品本身的特征。例如,“highres ”表示图像具有高分辨率,“oil_painting_ (medium) ”表示图像是油画风格的。然而,并非所有元标签都与图像的内容或形式相关。例如,“commentary_request ”表示 Danbooru 的帖子对作品有翻译请求,这与作品本身没有直接关系,因此没有效果。
顺序提示词更好。NoobAI-XL 建议按逻辑顺序撰写提示,从主要到次要。一个可能的写作顺序如下,仅供参考:
< 1girl/1boy/1other/female/male/… >, < character >, < series >, < artist (s) >, < general tags >, < other tags >, < quality & aesthetic tags >
其中,< quality & aesthetic tags > 可以前缀。
自然语言提示由句子组成,每个句子以大写字母开头,并以句号“.”结束。包括 NoobAI-XL 在内的大多数动漫模型对标签的理解更好,因此自然语言通常用作辅助,而不是提示的主要组成部分。
NoobAI-XL 支持直接生成大量粉丝创作的角色和艺术风格。角色和风格通过名称触发,这些名称也是称为触发词的标签。您可以直接在Danbooru 或e621 上搜索,并标准化生成的标签作为提示。
角色和艺术家的触发方式存在一些差异。
以下表格展示了一些角色和风格触发的正确和错误案例:
| 类型 | 提示词 | 对错 | 原因 |
| 角色 | Rei Ayanami | 错误 | 角色名称应为“ayanami rei ”。未添加系列标签“neon genesis evangelion ”。 |
| 角色 | character:ganyu \(genshin impact\), genshin impact | 错误 | 表面上添加了前缀“character:”。 |
| 角色 | ganyu_\(genshin impact\) | 错误 | 未完全标准化的标签:不应包含下划线。未添加系列标签。 |
| 角色 | ganyu (genshin impact), genshin impact | 错误 | 未完全标准化的标签:括号未转义。 |
| 角色 | ganyu (genshin impact\), genshin impact | 错误 | 未完全标准化的标签:左括号未转义。 |
| 角色 | ganyu \(genshin impact\),genshin impact | 错误 | 用中文逗号分隔了两个标签 |
| 角色 | ganyu \(genshin impact\), genshin impact | 正确 | |
| 艺术风格 | by wlop | 错误 | 表面上添加了前缀“by”。 |
| 艺术风格 | artist:wlop | 错误 | 表面上添加了前缀“artist:”。 |
| 艺术风格 | dino | 错误 | 艺术家名称错误,aidxl/artiwaifu 的艺术家名称不应使用,而应遵循 Danbooru,因此应为“dino\ (dinoartforame\) ”。 |
| 艺术风格 | wlop | 正确 |
为了方便您,我们还提供了一个完整的触发词表格在noob-wiki 供您参考:
这些表格中的每一行都包含来自 Danbooru 和 e621 的触发词表。表格的每一行代表一个角色或艺术风格。您只需找到与所需角色或艺术风格对应的行,复制“触发词”部分并直接粘贴到提示词中。如果您对某个角色或艺术风格不确定,也可以点击“url”列中的链接查看网站上的示例图。以下表格解释了每一列的含义。并非每个表格都包含所有列。
| 列出 | 含义 | 备注 |
| 角色 | 对应网站上角色的标签名称。 | |
| 艺术家 | 对应网站上标签名称中的艺术风格。 | |
| 触发词 | 标准化后的触发词。 | 直接复制并粘贴到提示词中使用。 |
| 计数 | 带有此标签的图像数量。 | 作为对该概念恢复程度的期望。对于角色,计数高于 200 可以更好地恢复。对于风格,计数高于 100 可以更好地恢复。 |
| url | 原始网站上的标签页面。 | |
| solo_count | 数据集中带有此标签且图像中只有一个角色的图像数量。 | 仅角色表。对于角色,solo_count 高于 50 可以更好地恢复。当通过计数判断减少程度时,计数列的偏差较大且准确性较低,而 solo_count 是更准确的指标。 |
| core_tags | 角色的核心特征标签,包括外观、性别和服装。用英文逗号分隔,每个标签已标准化。 | 仅 Danbooru 角色列表。当触发不受欢迎的角色且恢复程度不足时,可以添加几个核心特征标签以增强恢复程度。 |
特殊标签是一种具有特殊含义和效果的标签,作为辅助功能。
质量标签实际上是根据 Danbooru 和 e621 用户偏好统计数据获得的流行标签。按质量从高到低的顺序:
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
美学标签根据美学评分模型进行评分。目前只有两个,“very awa ”和“worst aesthetic ”。前者是根据waifu-scorer-v3 和waifu-scorer-v4-beta 加权评分的前 5% 数据,后者是底部 5% 的数据。之所以命名为very awa,是因为其美学标准类似于A rti Wa ifu Diffusion 模型。此外,还有一个仍在训练中且没有明显效果的美学标签“very as2”,其数据在aesthetic-shadow-v2-5 中得分的前 5%。
美学标签效果的比较
有四个安全/评级标签:general 、sensitive 、nsfw 和 explicit 。
我们希望用户在负面提示中自觉添加“nsfw”以过滤不当内容。😀
年份标签用于指示作品的创作年份,间接影响质量、风格、角色恢复程度等。其格式为“year xxxx ”,其中“xxxx”是特定年份,例如“year 2024”。
时期标签是年份标签,对图像质量也有显著影响。标签与年份的对应关系如下表所示。
| 年份范围 | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| 时期标签 | 最新 | 最近 | 中期 | 早期 | 旧 |
本节提供了提示的推荐用法示例,仅供参考。
以下推荐的起始点使用特殊标签,这些标签与图像质量的相关性最高。
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
以下表格介绍了常见的负面标签及其来源。并非所有负面标签都一定是坏的,正确使用它们可能会产生意想不到的效果。
| 标签 | 翻译 | 备注 | 来源 |
| 质量标签 | |||
| worst aesthetic | 最差的美学 | 包含低美学概念,如低质量、水印、漫画、多视图和未完成的草图 | 美学 |
| worst quality | 最差质量 | 质量 | |
| low quality | 低质量 | Danbooru 的低质量 | 质量 |
| bad quality | 低质量 | e621 的低质量 | 质量 |
| lowres | 低分辨率 | Danbooru | |
| scan artifacts | 扫描伪影 | Danbooru | |
| jpeg artifacts | JPEG 图像压缩伪影 | Danbooru | |
| lossy-lossless | - | 从有损图像格式转换为无损图像格式的图像通常充满伪影。 | Danbooru |
| 构图和艺术形式标签 | |||
| ai-generated | AI 生成 | 由 AI 生成,通常具有 AI 生成的油腻感。 | Danbooru |
| abstract | 抽象 | 消除杂乱的线条 | Danbooru |
| official art | 官方艺术 | 由系列或角色的官方公司/艺术家制作的插图。版权 、公司 或 艺术家 名称,以及版权声明 可能会印在图像的某个地方。 | Danbooru |
| old | 早期图像 | 时期 | |
| 4koma | 四格漫画 | Danbooru | |
| multiple views | 多视图 | Danbooru | |
| reference sheet | 个性设计 | Danbooru | |
| dakimakura \(medium\) | 抱枕图 | Danbooru | |
| turnaround | 全身三视图 | Danbooru | |
| comic | 卡通 | Danbooru | |
| greyscale | 金丝雀发布图 | 黑白图片 | Danbooru |
| monochrome | 单色 | 黑白图片 | Danbooru |
| sketch | 线稿 | Danbooru | |
| unfinished | 未完成的作品 | Danbooru | |
| E621 标签 | |||
| furry | 毛茸茸 | e621 | |
| anthro | 拟人化毛茸茸 | e621 | |
| feral | 野生毛茸茸 | e621 | |
| semi-anthro | 半拟人化毛茸茸 | e621 | |
| mammal | 哺乳动物(毛茸茸) | e621 | |
| 水印标签 | |||
| watermark | 水印 | Danbooru | |
| logo | LOGO | Danbooru | |
| signature | 艺术家签名 | Danbooru | |
| text | 文本 | Danbooru | |
| artist name | 艺术家名称 | Danbooru | |
| dated | 日期 | Danbooru | |
| username | 用户名 | Danbooru | |
| web address | 网站 | Danbooru | |
| 解剖标签 | |||
| bad hands | 手部缺陷 | Danbooru | |
| bad feet | 脚部缺陷 | Danbooru | |
| extra digits | 多余的手指 | Danbooru | |
| fewer digits | 缺失手指 | Danbooru | |
| extra arms | 多臂 | Danbooru | |
| extra faces | 多面 | Danbooru | |
| multiple heads | 多头 | Danbooru | |
| missing limb | 缺失肢体 | Danbooru | |
| amputee | 肢体缺失 | Danbooru | |
| severed limb | 截肢 | Danbooru | |
| mutated hands | 变异手 | - | |
| distorted anatomy | 扭曲的解剖结构 | - | |
| 内容标签 | |||
| nsfw | 色情等级 | 安全 | |
| explicit | 暴露程度 | 安全 | |
| censored | 审查 | Danbooru | |
目前,使用无意义标签的现象正在传播。本节列出常见的误用标签。
| 标签 | 翻译 | 备注 | 来源 |
| bad id | 图像 id 损坏 | 与图像元数据相关,而不是图像内容 | Danbooru |
| bad link | 图像原始链接已损坏 | 与图像元数据相关,而不是图像内容 | Danbooru |
| duplicate | 图像在网站上重复 | 与质量有一定相关性,但并不是重复内容。 | Danbooru |

Complicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt...

This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ...

GPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren...

This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif...

