
By gerogero
Updated: February 7, 2026
本文件提供了全面、完整和最新的 NoobAI-XL 模型介紹。
NoobAI-XL 是一個由Laxhar Dream Lab 開發的文本到圖像擴散模型,並由Lanyun贊助。
該模型的證書繼承自fair-ai-public-license-1.0-sd ,並有一些限制(見NoobAI-XL 模型證書)。該模型基於 SDXL 的模型架構。其基礎模型為Illustrious-xl-early-release-v0 模型。它在完整的Danbooru 和e621 數據集(約 1300 萬張圖像)上進行了大量輪次的訓練,擁有豐富的知識和卓越的性能。
NoobAI-XL 擁有大量知識,可以恢復數萬種 2D 角色和藝術家的風格,識別大量 2D 中的特殊概念,並擁有豐富的毛茸茸知識。
NoobAI-XL 提供噪聲預測(或稱epsilon 預測)和V 預測版本。簡而言之,噪聲預測版本生成的圖像更加多樣和創意,而 V 預測版本則更遵循提示,生成的圖像色彩範圍更廣,光影更強。
NoobAI-XL 擁有日益豐富的生態系統社區支持,包括各種 LoRA、ControlNet 、IP-Adapter 等等。
NoobAI-XL 包含一系列模型,主要是噪聲預測和 V 預測,將在後面詳細說明。
在閱讀本節之前,讀者需要已經了解任何類型的原始圖像 UI 的基本用法,例如WebUI 、ComfyUI 、forge 或reForge 。否則,讀者需要從這裡或從互聯網(如 Bilibili 等)學習。
如果你不知道該下載哪個模型,可以在這裡瀏覽。
NoobAI-XL 模型分為兩類:噪聲預測(epsilon 預測,或簡稱eps-pred)模型和 V 預測(v-prediction,或簡稱v-pred)模型。名稱中包含“eps”、“epsilon-pred”或“eps-pred”的模型是噪聲預測模型,與其他模型沒有太大區別。如果你使用它們,可以直接跳過這一部分。名稱中包含“v”或“v-pred”的模型是 V 預測模型,與大多數傳統模型不同。請仔細閱讀本節中的安裝指南!V 預測模型的原理可以在這篇文章中找到。
V 預測是一種相對少見的模型訓練技術。使用此技術訓練的模型稱為 V 預測模型。與噪聲預測相比,V 預測模型以對提示的更高服從性、更全面的色彩範圍和更強的光影著稱,代表作品包括NovelAI Diffusion V3 和COSXL 。由於其出現較晚且此類模型較少,一些主流圖形項目和 UI 不直接支持它。因此,如果你計劃使用 V 預測模型,你需要一些額外的操作。本節將介紹其具體用法。如果在使用過程中遇到任何困難,你也可以直接聯繫任何模型作者尋求幫助。
Forge 和reForge 是由lllyasviel 和Panchovix 分別開發的兩個 AI 圖像生成 UI,都是 WebUI 的擴展版本。它們的主分支支持 V 預測模型,操作模式幾乎與 WebUI 相同,因此推薦使用。如果你已經安裝了其中一個,只需在其安裝目錄中運行git pull 更新並重新啟動;如果你尚未安裝,可以參考在線教程進行安裝和使用。
ComfyUI 是由comfyanonymous 開發的圖像生成 UI,允許用戶自由操作節點,以其靈活性和專業性而聞名。使用 V 預測模型只需添加額外的節點。
WebUI 是由AUTOMATIC1111 開發的項目。當前,WebUI 的主分支不支持 V 預測模型,需要切換到 dev。請注意,這種方法不穩定,可能會有錯誤。不當使用甚至可能對 WebUI 造成不可逆的損壞。因此,請提前備份你的 WebUI。具體方法如下:
git checkout dev 並按 Enter。Diffusers 是一個專門的 Python 擴散模型庫。這種用法要求用戶具備一定的編程基礎,建議開發者和研究人員使用。代碼示例:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL 對提示詞沒有硬性要求,本文中推薦的行動只是錦上添花。
NoobAI-XL 建議用戶使用標籤作為提示來添加所需內容。每個標籤都是用英文逗號“,”分隔的英文單詞或短語,來自 Danbooru 和 e621 的標籤效果更強。欲進一步改進,請參見提示規範。
我們建議始終添加美學標籤“very awa”和質量標籤“masterpiece”到你的提示中。
NoobAI-XL 支持生成高保真角色和藝術風格,均由標籤觸發,我們稱之為“觸發詞”。其中,角色的觸發詞是其角色名稱;藝術風格的觸發詞是藝術家的名稱。完整的觸發詞表可以從noob-wiki 下載。觸發詞的詳細解釋可以在下文找到。
類似於 NovelAI,NoobAI-XL 支持質量、美學、創作年份、創作時期和安全評級等特殊標籤以輔助使用。有興趣的讀者可以參見後文的詳細介紹。
以下表格推薦三個生成參數:採樣器、採樣步驟和CFG 比例。粗體是強烈推薦;紅色粗體是硬性要求。使用其他參數值將帶來意想不到的效果。
| 版本號 | 所有噪聲預測版本 | V 預測 1.0 版本 | V 預測 0.9r 版本 | V 預測 0.75s 版本 | V 預測 0.65s 版本 | V 預測版本 0.6 | V 預測版本 0.5 | V 預測 Beta |
| 推薦參數 | 採樣器:Euler A CFG:5~7 採樣步驟:28~35 | 採樣器:Euler CFG:3.5~5.5 採樣步驟:32~40採樣器:Euler A CFG:3~5 採樣步驟:28~40 | 採樣器:Euler CFG:3.5~5.5 採樣步驟:32~40採樣器:Euler A CFG:3~5 採樣步驟:28~40 | 採樣器:Euler A CFG:3~5 採樣步驟:28~40 | 採樣器:Euler A 或 Euler CFG:3.5~5.5 採樣步驟:32~40採樣器:Euler A CFG:5~7 採樣步驟:28~40 | 採樣器:Euler CFG:3.5~5.5 採樣步驟:28~35 | 採樣器:Euler CFG:3.5~5.5 採樣步驟:28~40 | 採樣器:Euler A CFG:5~7 採樣步驟:28~35 |
對於 V 預測模型,建議以下參數以 (i) 優化顏色、光影和細節;(ii) 消除過飽和和過曝的影響;(iii) 增強語義理解。
生成圖像的解析度(寬 x 高)是一個重要參數。一般來說,出於架構原因,所有 SDXL 模型,包括 NoobAI-XL,都需要使用特定解析度以達到最佳效果。不允許多於或少於這些像素,否則生成圖像的質量將會降低。NoobAI-XL 的推薦解析度如下表所示:
| 解析度(W x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| 比例 | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
你也可以使用更大的區域解析度,儘管這不穩定。(根據 SD3 研究,當生成區域變為原始區域的 $$$$倍數時,模型的不確定性將變為原始 $$k^$$ 的倍數。)我們建議生成圖像的區域不超過原始的 1.5 倍。例如,1024×1536。
如果你對該模型感興趣並想了解更多,這一節提供了使用該模型的詳細指南。
NoobAI-XL 包含多個不同版本的基礎模型。以下表格總結了每個版本的特點。
| 版本號 | 預測類型 | 下載鏈接 | 迭代自 | 版本特點 |
| Early-Access | 噪聲預測 | CivitAIHuggingface | Illustrious-xl-early-release-v0 | 最早的版本,但已經有足夠的訓練。 |
| Epsilon-pred 0.5 | 噪聲預測 | CivitAIHuggingface | Early-Access | (推薦)最穩定的版本,唯一的缺點是缺乏對晦澀概念的知識。 |
| Epsilon-pred 0.6 | 噪聲預測 | Huggingface | Early-Access 0.5 | (推薦)最後一個僅訓練 UNet 的版本,具有優秀的收斂效果。測試團隊稱為“178000”,受到許多人喜愛。 |
| Epsilon-pred 0.75 | 噪聲預測 | CivitAIHuggingface | Epsilon-pred 0.6 | 文本編碼器(TTE)被訓練以學習更多晦澀知識,但質量性能下降。 |
| Epsilon-pred 0.77 | 噪聲預測 | Huggingface | Epsilon-pred 0.75 | 在 Epsilon-pred 0.75 的基礎上訓練了兩個輪次,改善了性能下降。 |
| Epsilon-pred 1.0 | 噪聲預測 | CivitAIHuggingface | Epsilon-pred 0.77 | (推薦)額外訓練 10 輪以鞏固 tte 的新知識,性能平衡。 |
| Pre-test | V 預測 | CivitAIHuggingface | Epsilon-pred 0.5 | (不推薦)V 預測的初始實驗版本。 |
| V-pred 0.5 | V 預測 | CivitAIHuggingface | Epsilon-pred 1.0 | (不推薦)存在高飽和問題。 |
| V-pred 0.6 | V 預測 | CivitAIHuggingface | V-pred 0.5 | (不推薦)根據初步評估結果,V-pred0.6 在稀有知識覆蓋方面表現良好,達到目前發布的模型中最高水平。同時,該模型顯著改善了質量下降問題。 |
| V-pred 0.65 | V 預測 | Huggingface | V-pred 0.6 | (不推薦)存在飽和問題。 |
| V-pred 0.65s | V 預測 | CivitAIHuggingface | V-pred 0.6 | 飽和問題幾乎解決!但存在伪影問題,將在下一版本中解決。 |
| Epsilon-pred 1.1 | 噪聲預測 | CivitAIHuggingface | Epsilon-pred 1.0 | (推薦)平均亮度問題已解決,各方面都有所改善。 |
| V-pred 0.75 | V 預測 | Huggingface | V-pred 0.65 | (不推薦)存在飽和問題。 |
| V-pred 0.75s | V 預測 | CivitAIHuggingface | V-pred 0.65 | (推薦)解決極端情況下的飽和、殘留噪聲和伪影問題。 |
| V-pred 0.9r | V 預測 | CivitAI | V-pred 0.75 | 使用約 10% 現實數據進行訓練。存在降級。 |
| V-pred 1.0 | V 預測 | CivitAI | V-pred 0.75 | (推薦)最佳平衡質量/性能/顏色。 |
| 預測類型 | ControlNet 類型 | 鏈接 | 預處理器類型 | 備註 |
| 噪聲預測 | Hed 軟邊緣 | CivitAIHuggingface | softedge_hed | |
| 噪聲預測 | 動漫線稿 | CivitAIHuggingface | lineart_anime | |
| 噪聲預測 | Midas 正常圖 | CivitAIHuggingface | normal_midas | |
| 噪聲預測 | Midas 深度圖 | CivitAIHuggingface | depth_midas | |
| 噪聲預測 | Canny 輪廓 | CivitAIHuggingface | canny | |
| 噪聲預測 | Openpose 人體骨架 | CivitAIHuggingface | openpose | |
| 噪聲預測 | 漫畫線 | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| 噪聲預測 | 現實線稿 | CivitAIHuggingface | lineart_realistic | |
| 噪聲預測 | Midas 深度圖 | CivitAIHuggingface | depth_midas | 新版本 |
| 噪聲預測 | HED 塗鴉 | CivitAIHuggingface | scribble_hed | |
| 噪聲預測 | Pidinet 塗鴉 | CivitAIHuggingface | scribble_pidinet | |
| 噪聲預測 | 瓷磚 | CivitAIHuggingface | tile |
注意,在使用 ControlNet 時,你必須將所使用的預處理器類型與 ControlNet 所需的預處理器類型匹配。此外,你可能不需要將基礎模型的預測類型與 ControlNet 的預測類型匹配。
敬請期待。
大多數 LoRA 可以用於噪聲預測和 V 預測版本,反之亦然。
首先,我們需要澄清提示的作用是引導。好的提示可以釋放模型的潛力,但壞的甚至錯誤的提示不一定會使結果變得更糟。不同的模型對提示的最佳使用方式不同,誤用的效果往往不明顯,在某些情況下,甚至可能有所改善。這個提示指南記錄了理論上最佳的模型提示工程,具備能力的讀者也可以自由使用。
本節將提供撰寫提示的詳細指南,包括提示撰寫標準、角色和風格觸發詞的具體用法、特殊標籤的使用等等。有興趣的讀者可以選擇性閱讀。
NoobAI-XL 的提示規範與其他類似動漫的基礎模型相同。本節將系統地介紹提示的基本撰寫規範,幫助讀者消除社區中的常見誤解。
根據不同的格式,提示大致可以分為兩類:標籤和自然語言。前者主要用於動漫模型,後者主要用於現實模型。無論哪種提示,除非模型另有說明,否則應僅包含英文字母、數字和符號。
標籤由小寫英文字或短語組成,並用英文逗號“,”分隔,例如,“1girl, solo, blue hair”包含三個標籤,“1girl”、“solo”和“blue hair”。
提示中的多餘空格和換行字符不會影響實際生成效果。換句話說,“1girl, solo, blue hair”和“1girl, solo, blue hair”具有完全相同的效果。
提示中不應包含任何下劃線“_”。受 Danbooru 等網站的影響,使用下劃線“_”而不是空格來分隔單詞作為標籤的做法已經流傳,這實際上是一種誤用,會導致生成結果與使用空格時不同。包括 NoobAI-XL 在內的大多數模型不建議在提示中包含任何下劃線。這種誤用在最佳情況下會影響生成質量,最糟糕的情況下甚至會使觸發詞完全無效。
必要時轉義括號。括號,包括圓括號 ()、方括號 [] 和大括號 {},在提示中是非常特殊的符號。與一般符號不同,在大多數圖像生成 UI 中,括號被解釋為加權特定內容,參與加權的括號不會發揮其原本的意義。但是,如果原始提示需要包含括號,例如某些觸發詞,該怎麼辦?答案是通過在括號前添加反斜杠“\”來消除括號的加權功能。這種改變字符原本意義的操作稱為轉義,反斜杠也稱為轉義字符。例如,如果不使用反斜杠進行轉義,提示“1girl, ganyu ( genshin impact ) ”將被錯誤解釋為“1girl, ganyu genshin impact”,其中“genshin impact”被加權,括號消失。通過添加轉義字符,提示變為“1girl, ganyu \ ( genshin impact \) ”,如預期。
簡而言之,標籤標準化分為兩步:(i)在每個標籤中用空格替換下劃線,並(ii)在括號前添加反斜杠“\”。
來自 Danbooru 和 e621 的標籤具有更強的表達效果。因此,我們建議讀者直接在這兩個網站上搜索標籤,而不是自己創建標籤。需要注意的是,這樣獲得的標籤用下劃線“_”分隔,且括號未轉義。因此,在將提示添加到來自它們的標籤之前,需要去除標籤中的空格並轉義括號。例如,將來自 Danbooru 的標籤“ganyu_ (genshin_impact) ”視為“ganyu\ (genshin impact\)”後再使用。
不要使用無效的元標籤。元標籤(meta tags )是 Danbooru 上的一種特殊標籤,用於指示圖像文件或作品本身的特徵。例如,“highres ”表示圖像具有高解析度,“oil_painting_ (medium) ”表示圖像的風格為油畫。然而,並非所有元標籤都與圖像的內容或形式相關。例如,“commentary_request ”表示 Danbooru 的帖子對該作品有翻譯請求,這與作品本身沒有直接關係,因此沒有效果。
順序提示詞更佳。NoobAI-XL 建議按邏輯順序撰寫提示,從主要到次要。一種可能的撰寫順序如下,僅供參考:
< 1girl/1boy/1other/female/male/… >, < character >, < series >, < artist (s) >, < general tags >, < other tags >, < quality & aesthetic tags >
其中,< quality & aesthetic tags >可以放在前面。
自然語言提示由句子組成,每個句子以大寫字母開頭,並以句號“.”結尾。大多數動漫模型,包括 NoobAI-XL,對標籤的理解更好,因此自然語言通常用作輔助,而不是提示中的主要組成部分。
NoobAI-XL 支持直接生成大量粉絲創作的角色和藝術風格。角色和風格由名稱觸發,這些名稱也是標籤,稱為觸發詞。你可以直接在Danbooru 或e621 上搜索,並標準化生成的標籤作為提示。
角色和藝術家的觸發方式有所不同。
以下表格演示了一些正確和錯誤的角色和風格觸發案例:
| 類型 | 提示詞 | 正確或錯誤 | 原因 |
| 角色 | Rei Ayanami | 錯誤 | 角色名稱應為“ayanami rei ”。未添加系列標籤“neon genesis evangelion ”。 |
| 角色 | character:ganyu \(genshin impact\), genshin impact | 錯誤 | 表面上添加了前綴“character:”。 |
| 角色 | ganyu_\(genshin impact\) | 錯誤 | 未完全標準化的標籤:不應包含下劃線。未添加系列標籤。 |
| 角色 | ganyu (genshin impact), genshin impact | 錯誤 | 未完全標準化的標籤:括號未轉義。 |
| 角色 | ganyu (genshin impact\), genshin impact | 錯誤 | 未完全標準化的標籤:左括號未轉義。 |
| 角色 | ganyu \(genshin impact\),genshin impact | 錯誤 | 用中文逗號分隔了兩個標籤 |
| 角色 | ganyu \(genshin impact\), genshin impact | 正確 | |
| 藝術風格 | by wlop | 錯誤 | 表面上添加了前綴“by”。 |
| 藝術風格 | artist:wlop | 錯誤 | 表面上添加了前綴“artist:”。 |
| 藝術風格 | dino | 錯誤 | 藝術家名稱錯誤,aidxl/artiwaifu 的藝術家名稱不應使用,而應遵循 Danbooru,因此應為“dino\ (dinoartforame\) ”。 |
| 藝術風格 | wlop | 正確 |
為了方便起見,我們還提供了一個完整的觸發詞表格在noob-wiki 供你參考:
這些表格中的每一行都包含來自 Danbooru 和 e621 數據庫的觸發詞表。每一行代表一個角色或藝術風格。你只需找到對應於所需角色或藝術風格的行,複製“觸發”部分並直接粘貼到提示詞中。如果你不確定某個角色或藝術風格,可以點擊“url”列中的鏈接查看網站上的示例圖。以下表格解釋了每一列的含義。並非每個表格都包含所有列。
| 列出 | 含義 | 備註 |
| 角色 | 對應網站上角色的標籤名稱。 | |
| 藝術家 | 對應網站上標籤名稱中的藝術風格。 | |
| 觸發 | 標準化後的觸發詞。 | 直接複製並粘貼到提示詞中使用。 |
| 數量 | 擁有此標籤的圖像數量。 | 作為對該概念恢復程度的預期。對於角色,數量超過 200 可以更好地恢復。對於風格,數量超過 100 可以更好地恢復。 |
| url | 原始網站上的標籤頁面。 | |
| solo_count | 數據集中擁有此標籤且圖像中只有一個角色的圖像數量。 | 僅角色表。對於角色,solo_count 超過 50 可以更好地恢復。當根據數量判斷減少程度時,數量列的偏差較大,準確性較低,而 solo_count 是更準確的指標。 |
| core_tags | 角色的核心特徵標籤,包括外觀、性別和服裝。用英文逗號分隔,每個標籤已標準化。 | 僅 Danbooru 角色列表。在觸發不受歡迎角色且其恢復程度不足時,可以添加幾個核心特徵標籤以增強恢復程度。 |
特殊標籤是一種具有特殊含義和效果的標籤,作為輔助功能。
質量標籤實際上是根據 Danbooru 和 e621 用戶偏好的統計數據獲得的受歡迎標籤。質量從高到低的順序為:
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
美學標籤根據美學評分模型進行評分。目前只有兩個,“very awa ”和“worst aesthetic ”。前者是與waifu-scorer-v3 和waifu-scorer-v4-beta 加權分數在前 5% 的數據,後者是底部 5% 的數據。之所以命名為very awa,是因為其美學標準類似於A rti Wa ifu Diffusion 模型。此外,仍在訓練中且沒有明顯效果的美學標籤是“very as2”,其數據與“aesthetic-shadow-v2-5 ”的分數在前 5%。
美學標籤效果的比較
有四個安全/評級標籤:general 、sensitive 、nsfw 和explicit 。
我們希望用戶能夠自覺地在負面提示中添加“nsfw”以過濾不當內容。😀
年份標籤用於指示作品的創作年份,間接影響質量、風格、角色恢復程度等。其格式為“year xxxx ”,其中“xxxx”是具體年份,例如“year 2024”。
時期標籤是年份標籤,對圖像質量也有顯著影響。標籤與年份的對應關係如下表所示。
| 年份範圍 | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| 時期標籤 | 最新 | 最近 | 中期 | 早期 | 舊 |
本節提供了提示的推薦使用示例,僅供參考。
以下推薦的起始點使用特殊標籤,這些標籤與圖像質量的相關性最高。
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
以下表格介紹了常見的負面標籤及其來源。並非所有負面標籤都一定是壞的,正確使用它們可以產生意想不到的效果。
| 標籤 | 翻譯 | 備註 | 來源 |
| 質量標籤 | |||
| worst aesthetic | 最差的美學 | 包含低美學概念,如低質量、水印、漫畫、多視角和未完成的草圖 | 美學 |
| worst quality | 最差質量 | 質量 | |
| low quality | 低質量 | Danbooru 的低質量 | 質量 |
| bad quality | 低質量 | e621 的低質量 | 質量 |
| lowres | 低解析度 | Danbooru | |
| scan artifacts | 掃描伪影 | Danbooru | |
| jpeg artifacts | JPEG 圖像壓縮伪影 | Danbooru | |
| lossy-lossless | - | 從有損圖像格式轉換為無損圖像格式的圖像通常充滿了伪影。 | Danbooru |
| 構圖和藝術形式標籤 | |||
| ai-generated | AI 生成 | 由 AI 生成,通常會有 AI 生成的油膩感。 | Danbooru |
| abstract | 抽象 | 消除雜亂的線條 | Danbooru |
| official art | 官方藝術 | 由系列或角色的官方公司/藝術家製作的插圖。版權、公司或藝術家名稱,以及版權聲明可能會印刷在圖像的某處。 | Danbooru |
| old | 早期圖像 | 時期 | |
| 4koma | 四格漫畫 | Danbooru | |
| multiple views | 多視角 | Danbooru | |
| reference sheet | 性格設計 | Danbooru | |
| dakimakura \(medium\) | 抱枕圖 | Danbooru | |
| turnaround | 全身三視圖 | Danbooru | |
| comic | 卡通 | Danbooru | |
| greyscale | 金絲雀釋放圖 | 黑白圖片 | Danbooru |
| monochrome | 單色 | 黑白圖片 | Danbooru |
| sketch | 線稿 | Danbooru | |
| unfinished | 未完成的作品 | Danbooru | |
| E621 標籤 | |||
| furry | 毛茸茸的 | e621 | |
| anthro | 擬人化毛茸茸的 | e621 | |
| feral | 野生的 | e621 | |
| semi-anthro | 半擬人化毛茸茸的 | e621 | |
| mammal | 哺乳動物(毛茸茸的) | e621 | |
| 水印標籤 | |||
| watermark | 水印 | Danbooru | |
| logo | LOGO | Danbooru | |
| signature | 藝術家簽名 | Danbooru | |
| text | 文本 | Danbooru | |
| artist name | 藝術家名稱 | Danbooru | |
| dated | 日期 | Danbooru | |
| username | 用戶名 | Danbooru | |
| web address | 網站 | Danbooru | |
| 解剖標籤 | |||
| bad hands | 壞手 | Danbooru | |
| bad feet | 壞腳 | Danbooru | |
| extra digits | 多餘的手指 | Danbooru | |
| fewer digits | 缺少手指 | Danbooru | |
| extra arms | 多臂 | Danbooru | |
| extra faces | 多面 | Danbooru | |
| multiple heads | 多頭 | Danbooru | |
| missing limb | 缺少肢體 | Danbooru | |
| amputee | 失去肢體 | Danbooru | |
| severed limb | 截肢 | Danbooru | |
| mutated hands | 突變手 | - | |
| distorted anatomy | 扭曲的解剖學 | - | |
| 內容標籤 | |||
| nsfw | 色情級Related Posts![]() Guide to Prompting with Illustrious ModelsComplicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt... ![]() Guide to AI Pose Prompting (NSFW)This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ... ![]() Can Chatgpt GPT-4o image generation do NSFW/nudity? GPT-4o massive nerf and other findingsGPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren... ![]() Automatic1111 Stable Diffusion WebUI for Hentai Generation (SD1.5 Tutorial)This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif... | ||