
By gerogero
Updated: February 7, 2026
เอกสารนี้ให้ ข้อมูลที่ครอบคลุม สมบูรณ์ และ ทันสมัย เกี่ยวกับการแนะนำ NoobAI-XL โมเดล.
NoobAI-XL เป็นโมเดลการแพร่กระจายจากข้อความเป็นภาพที่พัฒนาโดย Laxhar Dream Lab และได้รับการสนับสนุนโดย Lanyun.
ใบรับรองโมเดลมาจาก fair-ai-public-license-1.0-sd และมีข้อจำกัดบางประการ (ดู ใบรับรองโมเดล NoobAI-XL). โมเดลนี้อิงจากสถาปัตยกรรมโมเดล SDXL’s โมเดลพื้นฐานคือ Illustrious-xl-early-release-v0 โมเดล. มันได้รับการฝึกอบรมจากชุดข้อมูลที่สมบูรณ์ Danbooru และ e621 (ประมาณ 13 ล้านภาพ) เป็นจำนวนรอบมากมาย โดยมีความรู้ที่หลากหลายและประสิทธิภาพที่ยอดเยี่ยม.
NoobAI-XL มีความรู้จำนวนมาก ซึ่งสามารถฟื้นฟูสไตล์ของตัวละคร 2D และศิลปินจำนวนมาก รู้จักแนวคิดพิเศษใน 2D จำนวนมาก และมีความรู้เกี่ยวกับ furry ที่หลากหลาย.
NoobAI-XL มีทั้ง การคาดการณ์เสียง (หรือพูดว่า การคาดการณ์ epsilon) และ การคาดการณ์ V รุ่น. สั้นๆ ว่ารุ่นการคาดการณ์เสียงสร้างภาพที่หลากหลายและสร้างสรรค์มากขึ้น ในขณะที่รุ่นการคาดการณ์ V จะปฏิบัติตามคำสั่งมากขึ้นและสร้างภาพที่มีช่วงสีที่กว้างขึ้นและแสงที่เข้มข้นขึ้น.
NoobAI-XL มีการสนับสนุนจากชุมชนที่มีระบบนิเวศที่ร่ำรวยมากขึ้น รวมถึง LoRA ต่างๆ, ControlNet , IP-Adapter และอื่นๆ.
NoobAI-XL รวมถึงชุดของโมเดล โดยหลักแล้วคือการคาดการณ์เสียงและการคาดการณ์ V ซึ่งจะถูกอธิบายโดยละเอียด ในภายหลัง .
ก่อนอ่านส่วนนี้ ผู้ใช้ต้องเข้าใจการใช้งานพื้นฐานของ UI รูปภาพดิบประเภทใดๆ เช่น WebUI , ComfyUI , forge หรือ reForge . มิฉะนั้น ผู้ใช้ต้องเรียนรู้จาก ที่นี่ หรือจากอินเทอร์เน็ต (เช่น Bilibili เป็นต้น).
| เว็บไซต์ | ลิงก์ |
| CivitAI | คลิกที่นี่ |
| LiblibAI | คลิกที่นี่ |
| Huggingface | คลิกที่นี่ |
หากคุณไม่รู้ว่าจะดาวน์โหลดโมเดลไหน คุณสามารถ เรียกดูที่นี่ .
โมเดล NoobAI-XL แบ่งออกเป็นสองประเภท: การคาดการณ์เสียง ( การคาดการณ์ epsilon , หรือย่อว่า eps-pred ) และการคาดการณ์ V ( การคาดการณ์ v , หรือย่อว่า v-pred ). โมเดลที่มีคำว่า “eps”, “epsilon-pred”, หรือ “eps-pred” ในชื่อของพวกเขาคือโมเดลการคาดการณ์เสียง ซึ่งไม่แตกต่างจากโมเดลอื่นมากนัก หากคุณใช้พวกเขา คุณสามารถข้ามส่วนนี้ไปได้เลย โมเดลที่มีคำว่า “v” หรือ “v-pred” ในชื่อของพวกเขาคือโมเดลการคาดการณ์ V ซึ่งแตกต่างจากโมเดลทั่วไปส่วนใหญ่ โปรดอ่านคู่มือการติดตั้งในส่วนนี้อย่างละเอียด! หลักการของโมเดลการคาดการณ์ V สามารถพบได้ใน บทความนี้ .
การคาดการณ์ V เป็นเทคนิคการฝึกอบรมโมเดลที่ค่อนข้างหายาก โมเดลที่ฝึกด้วยเทคนิคนี้เรียกว่าโมเดลการคาดการณ์ V เมื่อเปรียบเทียบกับการคาดการณ์เสียง โมเดลการคาดการณ์ V มีชื่อเสียงในด้านการปฏิบัติตามคำแนะนำที่สูงขึ้น ช่วงสีที่ครอบคลุมมากขึ้น และแสงและเงาที่เข้มข้นขึ้น ซึ่งแสดงโดย NovelAI Diffusion V3 และ COSXL . เนื่องจากปรากฏตัวช้าและมีโมเดลประเภทนี้น้อยลง โครงการกราฟิกหลักบางโครงการและ UI จึงไม่สนับสนุนโดยตรง ดังนั้นหากคุณวางแผนที่จะใช้โมเดลการคาดการณ์ V คุณจะต้องทำการดำเนินการเพิ่มเติมบางอย่าง ส่วนนี้จะอธิบายการใช้งานเฉพาะ หากคุณพบปัญหาใดๆ ในระหว่างการใช้งาน คุณยังสามารถติดต่อผู้เขียนโมเดลใดๆ เพื่อขอความช่วยเหลือได้.
Forge และ reForge เป็นสอง UI การสร้างภาพ AI ที่พัฒนาโดย lllyasviel และ Panchovix ตามลำดับ ทั้งสองเป็นเวอร์ชันขยายของ WebUI สาขาหลักของพวกเขาสนับสนุนโมเดลการคาดการณ์ V และโหมดการทำงานเกือบจะเหมือนกับ WebUI ดังนั้นจึงแนะนำ หากคุณได้ติดตั้งหนึ่งในนั้นแล้ว คุณเพียงแค่ต้องรัน git pull เพื่ออัปเดตในไดเรกทอรีการติดตั้งและรีสตาร์ท; หากคุณยังไม่ได้ติดตั้ง คุณสามารถดูบทเรียนออนไลน์สำหรับการติดตั้งและการใช้งาน.
ComfyUI เป็น UI การสร้างภาพที่พัฒนาโดย comfyanonymous ซึ่งอนุญาตให้ผู้ใช้จัดการโหนดได้อย่างอิสระ ตั้งชื่อตามความยืดหยุ่นและความเป็นมืออาชีพของมัน การใช้โมเดลการคาดการณ์ V เพียงแค่ต้องเพิ่มโหนดเพิ่มเติม.
WebUI เป็นโครงการ stable-diffusion-webui ที่พัฒนาโดย AUTOMATIC1111 . ขณะนี้ สาขาหลักของ WebUI ซึ่งเป็นสาขาหลัก ไม่สนับสนุนโมเดลการคาดการณ์ V และต้องเปลี่ยนไปใช้ dev. โปรดทราบว่าวิธีนี้ไม่เสถียรและอาจมีบั๊ก การใช้งานที่ไม่เหมาะสมอาจทำให้ WebUI เสียหายอย่างถาวรได้ ดังนั้นโปรดสำรองข้อมูล WebUI ของคุณล่วงหน้า วิธีการเฉพาะมีดังนี้:
git checkout dev และกด Enter.Diffusers เป็นไลบรารีโมเดลการแพร่กระจาย Python ที่มุ่งเน้น. การใช้งานนี้ต้องการให้ผู้ใช้มีพื้นฐานโค้ดบางอย่าง และแนะนำให้ใช้โดยนักพัฒนาและนักวิจัย ตัวอย่างโค้ด:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL ไม่มีข้อกำหนดที่เข้มงวดสำหรับคำสั่ง และการกระทำที่แนะนำในเอกสารนี้เป็นเพียงการเสริม.
NoobAI-XL แนะนำให้ผู้ใช้ใช้แท็กเป็นคำสั่งเพื่อเพิ่มเนื้อหาที่ต้องการ แต่ละแท็กเป็นคำหรือวลีภาษาอังกฤษที่แยกจากกันด้วยเครื่องหมายจุลภาคภาษาอังกฤษ “,” และแท็กที่มาจาก Danbooru และ e621 จะมีผลที่แข็งแกร่งกว่า สำหรับการปรับปรุงเพิ่มเติม โปรดดูที่ ข้อกำหนดคำสั่ง ในภายหลัง.
เราขอแนะนำให้เพิ่ม แท็กความงาม “very awa” และ แท็กคุณภาพ “masterpiece” ลงในคำสั่งของคุณ.
NoobAI-XL สนับสนุนการสร้างตัวละครและสไตล์ศิลปินที่มีความแม่นยำสูง ซึ่งทั้งสองอย่างถูกกระตุ้นโดยแท็ก ซึ่งเราเรียกว่า “trigger words“. ในหมู่พวกเขา trigger words สำหรับตัวละครคือชื่อของพวกเขา; trigger words สำหรับสไตล์ศิลปินคือชื่อของศิลปิน ตาราง trigger word ที่สมบูรณ์สามารถดาวน์โหลดได้จาก noob-wiki . คำอธิบายโดยละเอียดเกี่ยวกับ trigger words สามารถพบได้ ด้านล่าง .
คล้ายกับ NovelAI, NoobAI-XL สนับสนุนแท็กพิเศษ เช่น คุณภาพ ความงาม ปีที่สร้าง ระยะเวลาที่สร้าง และระดับความปลอดภัยเพื่อวัตถุประสงค์เสริม ผู้ที่สนใจสามารถดูการแนะนำโดยละเอียดใน ข้อความต่อไปนี้ .
ตารางด้านล่างแนะนำพารามิเตอร์การสร้างสามตัว: sampler , sampling steps , และ CFG Scale . ตัวหนา แนะนำอย่างยิ่ง; ตัวหนาสีแดง เป็นข้อกำหนดที่เข้มงวด การใช้ค่าพารามิเตอร์อื่นนอกจากนี้จะนำไปสู่ผลลัพธ์ที่ไม่คาดคิด.
| หมายเลขเวอร์ชัน | รุ่นการคาดการณ์เสียงทั้งหมด | รุ่นการคาดการณ์ V 1.0 | รุ่นการคาดการณ์ V 0.9r | รุ่นการคาดการณ์ V 0.75s | รุ่นการคาดการณ์ V 0.65s | รุ่นการคาดการณ์ V 0.6 | รุ่นการคาดการณ์ V 0.5 | รุ่นการคาดการณ์ V Beta |
| พารามิเตอร์ที่แนะนำ | Sampler: Euler A CFG: 5~ 7 Sampling steps: 28~ 35 | Sampler: Euler CFG: 3.5 ~ 5.5 Sampling steps: 32~ 40Sampler: Euler A CFG: 3 ~ 5 Sampling steps: 28~ 40 | Sampler: Euler CFG: 3.5 ~ 5.5 Sampling steps: 32~ 40Sampler: Euler A CFG: 3 ~ 5 Sampling steps: 28~ 40 | Sampler: Euler A CFG: 3 ~ 5 Sampling steps: 28~ 40 | Sampler: Euler A หรือ Euler CFG: 3.5 ~ 5.5 Sampling steps: 32~ 40Sampler: Euler A CFG: 5 ~ 7 Sampling steps: 28~ 40 | Sampler: Euler CFG: 3.5~ 5.5 Sampling steps: 28~ 35 | Sampler: Euler CFG: 3.5~ 5.5 Sampling steps: 28~ 40 | Sampler: Euler A CFG: 5~ 7 Sampling steps: 28~ 35 |
สำหรับโมเดลการคาดการณ์ V พารามิเตอร์ต่อไปนี้แนะนำให้ (i) ปรับสี แสง และรายละเอียดให้เหมาะสม; (ii) กำจัดผลกระทบจากการอิ่มตัวเกินไปและการเปิดเผยเกินไป; และ (iii) เสริมสร้างความเข้าใจเชิงความหมาย.
ความละเอียด (ความกว้าง x ความสูง) ของภาพที่สร้างขึ้นเป็นพารามิเตอร์ที่สำคัญ โดยทั่วไปแล้ว ด้วยเหตุผลทางสถาปัตยกรรม โมเดล SDXL ทั้งหมดรวมถึง NoobAI-XL จำเป็นต้องใช้ความละเอียดเฉพาะเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด ไม่อนุญาตให้มีพิกเซลมากหรือน้อยเกินไป มิฉะนั้นคุณภาพของภาพที่สร้างขึ้นจะลดลง ความละเอียดที่แนะนำของ NoobAI-XL แสดงในตารางด้านล่าง:
| ความละเอียด (W x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| สัดส่วน | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
คุณยังสามารถใช้ความละเอียดพื้นที่ที่ใหญ่กว่าได้ แม้ว่านี่จะไม่เสถียร (ตามการวิจัย SD3 เมื่อพื้นที่ที่สร้างขึ้นกลายเป็น $$$$หลายเท่าของต้นฉบับ ความไม่แน่นอนของโมเดลจะกลายเป็นหลายเท่าของต้นฉบับ $$k^$$.) เราขอแนะนำว่า พื้นที่ของภาพที่สร้างขึ้นไม่ควรเกิน 1.5 เท่าของต้นฉบับ ตัวอย่างเช่น 1024×1536.
หากคุณสนใจในโมเดลและต้องการเรียนรู้เพิ่มเติมเกี่ยวกับมัน ส่วนนี้จะให้คำแนะนำโดยละเอียดเกี่ยวกับการใช้โมเดล.
NoobAI-XL รวมหลายเวอร์ชันที่แตกต่างกันของโมเดลพื้นฐานสำหรับชุด. ตารางด้านล่างสรุปคุณสมบัติของแต่ละเวอร์ชัน.
| หมายเลขเวอร์ชัน | ประเภทการคาดการณ์ | ลิงก์ดาวน์โหลด | การวนซ้ำตั้งแต่ | คุณสมบัติของเวอร์ชัน |
| Early-Access | การคาดการณ์เสียง | CivitAIHuggingface | Illustrious-xl-early-release-v0 | เวอร์ชันแรก แต่มีการฝึกอบรมที่เพียงพอแล้ว. |
| Epsilon-pred 0.5 | การคาดการณ์เสียง | CivitAIHuggingface | Early-Access | (แนะนำ) เวอร์ชันที่เสถียรที่สุด ข้อเสียเพียงอย่างเดียวคือการขาดความรู้เกี่ยวกับแนวคิดที่ไม่ชัดเจน. |
| Epsilon-pred 0.6 | การคาดการณ์เสียง | Huggingface | Early-Access 0.5 | (แนะนำ) เวอร์ชันสุดท้ายของการฝึกอบรม UNet เท่านั้นที่มีผลการรวมที่ยอดเยี่ยม ทีมทดสอบเรียกว่า “178000” ซึ่งได้รับความชอบจากหลายคน. |
| Epsilon-pred 0.75 | การคาดการณ์เสียง | CivitAIHuggingface | Epsilon-pred 0.6 | ตัวเข้ารหัสข้อความ (TTE) ได้รับการฝึกเพื่อเรียนรู้ความรู้ที่ไม่ชัดเจนมากขึ้น แต่คุณภาพการแสดงผลลดลง. |
| Epsilon-pred 0.77 | การคาดการณ์เสียง | Huggingface | Epsilon-pred 0.75 | ฝึกอบรมอีกสองรอบบนพื้นฐานของ Epsilon-pred 0.75 เพื่อปรับปรุงการเสื่อมสภาพของประสิทธิภาพ. |
| Epsilon-pred 1.0 | การคาดการณ์เสียง | CivitAIHuggingface | Epsilon-pred 0.77 | (แนะนำ) การฝึกอบรมเพิ่มเติมอีก 10 รอบเพื่อเสริมสร้างความรู้ใหม่ของ tte และปรับสมดุลประสิทธิภาพ. |
| Pre-test | การคาดการณ์ V | CivitAIHuggingface | Epsilon-pred 0.5 | (ไม่แนะนำ) เวอร์ชันทดลองเบื้องต้นของการคาดการณ์ V. |
| V-pred 0.5 | การคาดการณ์ V | CivitAIHuggingface | Epsilon-pred 1.0 | (ไม่แนะนำ) มีปัญหาเรื่องการอิ่มตัวสูง. |
| V-pred 0.6 | การคาดการณ์ V | CivitAIHuggingface | V-pred 0.5 | (ไม่แนะนำ) ตามผลการประเมินเบื้องต้น V-pred0.6 ทำผลงานได้ดีในด้านการครอบคลุมความรู้ที่หายาก โดยถึงระดับสูงสุดในบรรดาโมเดลที่เผยแพร่ในปัจจุบัน ในขณะเดียวกัน โมเดลยังปรับปรุงปัญหาการเสื่อมสภาพคุณภาพอย่างมีนัยสำคัญ. |
| V-pred 0.65 | การคาดการณ์ V | Huggingface | V-pred 0.6 | (ไม่แนะนำ) มีปัญหาเรื่องการอิ่มตัว. |
| V-pred 0.65s | การคาดการณ์ V | CivitAIHuggingface | V-pred 0.6 | ปัญหาการอิ่มตัวเกือบจะถูกแก้ไข! แต่มีปัญหาภาพที่เกิดขึ้น ซึ่งจะถูกแก้ไขในเวอร์ชันถัดไป. |
| Epsilon-pred 1.1 | การคาดการณ์เสียง | CivitAIHuggingface | Epsilon-pred 1.0 | (แนะนำ) ปัญหาความสว่างเฉลี่ยได้รับการแก้ไข และทุกด้านได้รับการปรับปรุง. |
| V-pred 0.75 | การคาดการณ์ V | Huggingface | V-pred 0.65 | (ไม่แนะนำ) มีปัญหาเรื่องการอิ่มตัว. |
| V-pred 0.75s | การคาดการณ์ V | CivitAIHuggingface | V-pred 0.65 | (แนะนำ) แก้ไขการอิ่มตัวในสถานการณ์สุดขีด ปัญหาเสียงที่เหลือ และปัญหาภาพ. |
| V-pred 0.9r | การคาดการณ์ V | CivitAI | V-pred 0.75 | ฝึกด้วยข้อมูลความเป็นจริงประมาณ 10%. มีการเสื่อมสภาพ. |
| V-pred 1.0 | การคาดการณ์ V | CivitAI | V-pred 0.75 | (แนะนำ) คุณภาพ/ประสิทธิภาพ/สีที่ดีที่สุดที่สมดุล. |
| ประเภทการคาดการณ์ | ประเภท ControlNet | ลิงก์ | ประเภท Preprocessor | หมายเหตุ |
| การคาดการณ์เสียง | Hed soft edge | CivitAIHuggingface | softedge_hed | |
| การคาดการณ์เสียง | Anime lineart | CivitAIHuggingface | lineart_anime | |
| การคาดการณ์เสียง | Midas normal map | CivitAIHuggingface | normal_midas | |
| การคาดการณ์เสียง | Midas depth map | CivitAIHuggingface | depth_midas | |
| การคาดการณ์เสียง | Canny contour | CivitAIHuggingface | canny | |
| การคาดการณ์เสียง | Openpose human skeleton | CivitAIHuggingface | openpose | |
| การคาดการณ์เสียง | Manga line | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| การคาดการณ์เสียง | Realistic lineart | CivitAIHuggingface | lineart_realistic | |
| การคาดการณ์เสียง | Midas depth map | CivitAIHuggingface | depth_midas | เวอร์ชันใหม่ |
| การคาดการณ์เสียง | HED scribble | CivitAIHuggingface | scribble_hed | |
| การคาดการณ์เสียง | Pidinet scribble | CivitAIHuggingface | scribble_pidinet | |
| การคาดการณ์เสียง | Tile | CivitAIHuggingface | tile |
โปรดทราบว่าเมื่อใช้ ControlNet คุณ ต้อง จับคู่ประเภทของ preprocessor ที่คุณใช้กับประเภทของ preprocessor ที่ ControlNet ต้องการ นอกจากนี้ คุณ อาจไม่จำเป็นต้อง จับคู่ประเภทการคาดการณ์ของโมเดลพื้นฐานกับประเภทการคาดการณ์ของ ControlNet.
เร็วๆ นี้.
LoRA ส่วนใหญ่สามารถใช้ได้กับทั้งรุ่นการคาดการณ์เสียงและรุ่นการคาดการณ์ V และในทางกลับกัน.
ก่อนอื่นเราต้องชี้แจงว่าบทบาทของคำสั่งคือการชี้นำ คำสั่งที่ดีสามารถปลดปล่อยศักยภาพของโมเดล แต่คำสั่งที่ไม่ดีหรือแม้แต่คำสั่งที่ไม่ถูกต้องอาจไม่ทำให้ผลลัพธ์แย่ลงเสมอไป โมเดลที่แตกต่างกันมีการใช้งานคำสั่งที่ดีที่สุดที่แตกต่างกัน และผลกระทบจากการใช้งานที่ไม่เหมาะสมมักจะไม่ชัดเจน และในบางกรณีก็อาจทำให้ดีขึ้นได้ คู่มือนี้บันทึก การวิศวกรรมคำสั่งที่ดีที่สุดตามทฤษฎี ของโมเดล และผู้อ่านที่มีความสามารถสามารถใช้ได้อย่างอิสระ.
ส่วนนี้จะให้คำแนะนำโดยละเอียดเกี่ยวกับการเขียนคำสั่ง รวมถึงมาตรฐานการเขียนคำสั่ง การใช้งานเฉพาะของคำกระตุ้นบทบาทและสไตล์ การใช้งานแท็กพิเศษ และอื่นๆ ผู้ที่สนใจในวิศวกรรมคำสั่งสามารถเลือกอ่านได้ตามต้องการ.
NoobAI-XL มีข้อกำหนดคำสั่งเดียวกันกับโมเดลพื้นฐานที่คล้ายกันอื่นๆ ส่วนนี้จะแนะนำข้อกำหนดการเขียนคำสั่งพื้นฐานอย่างเป็นระบบและช่วยให้ผู้อ่านขจัดความเข้าใจผิดทั่วไปในชุมชน.
ตามรูปแบบที่แตกต่างกัน คำสั่งสามารถแบ่งออกเป็นสองประเภท: แท็ก และ ภาษาธรรมชาติ. แท็กแรกส่วนใหญ่ใช้สำหรับโมเดลอนิเมะ และแท็กหลังส่วนใหญ่ใช้สำหรับโมเดลชีวิตจริง ไม่ว่าจะเป็นคำสั่งประเภทใด ก็ตาม เว้นแต่โมเดลจะระบุไว้เป็นอย่างอื่น คำสั่งควรประกอบด้วยตัวอักษรภาษาอังกฤษ ตัวเลข และสัญลักษณ์เท่านั้น.
แท็กประกอบด้วย คำภาษาอังกฤษตัวพิมพ์เล็ก หรือวลีที่แยกจากกันด้วย จุลภาคภาษาอังกฤษ “,” ตัวอย่างเช่น “1girl, solo, blue hair” ประกอบด้วยแท็กสามแท็ก “1girl”, “solo” และ “blue hair”.
ช่องว่างพิเศษและอักขระขึ้นบรรทัดในคำสั่งจะไม่ส่งผลต่อผลลัพธ์การสร้างจริง. กล่าวอีกนัยหนึ่ง “1girl, solo, blue hair” และ “1girl, solo, blue hair” มีผลลัพธ์ที่เหมือนกัน.
คำสั่งไม่ควรมีอักขระขีดล่าง “_”. ได้รับอิทธิพลจากเว็บไซต์เช่น Danbooru การใช้ขีดล่าง “_” แทนช่องว่างระหว่างคำในแท็กได้แพร่หลาย ซึ่งจริงๆ แล้วเป็นการใช้งานที่ไม่เหมาะสมและจะทำให้ผลลัพธ์ที่สร้างขึ้นแตกต่างจากการใช้ช่องว่าง โมเดลส่วนใหญ่ รวมถึง NoobAI-XL ไม่แนะนำให้รวมอักขระขีดล่างในคำสั่ง การใช้งานที่ไม่เหมาะสมนี้อาจส่งผลต่อคุณภาพของการสร้างได้ดีที่สุด และอาจทำให้ trigger words ไม่สามารถใช้งานได้เลยในกรณีที่เลวร้ายที่สุด.
หลีกเลี่ยงวงเล็บหากจำเป็น วงเล็บ รวมถึงวงเล็บกลม (), วงเล็บสี่เหลี่ยม [], และวงเล็บปีกกา {} เป็นสัญลักษณ์ที่พิเศษมากในคำสั่ง แตกต่างจากสัญลักษณ์ทั่วไป ใน UI การสร้างภาพส่วนใหญ่ วงเล็บจะถูกตีความว่าเป็นการชั่งน้ำหนักเนื้อหาที่เฉพาะเจาะจง และวงเล็บที่เข้าร่วมในการชั่งน้ำหนักจะไม่เล่นตามความหมายเดิมของพวกเขา อย่างไรก็ตาม หากคำสั่งเดิมต้องรวมวงเล็บ เช่น คำกระตุ้นบางคำ คำตอบคือฟังก์ชันการชั่งน้ำหนักของวงเล็บสามารถถูกกำจัดได้โดยการเพิ่มแบ็คสแลช “\” ก่อนวงเล็บ การดำเนินการนี้ในการเปลี่ยนความหมายเดิมของอักขระเรียกว่า escape และแบ็คสแลชยังเรียกว่าอักขระ escape ตัวอย่างเช่น หากคุณไม่ใช้แบ็คสแลชเพื่อหลีกเลี่ยง คำสั่ง “1girl, ganyu ( genshin impact ) ” จะถูกตีความอย่างไม่ถูกต้องว่า “1girl, ganyu genshin impact” ซึ่ง “genshin impact” ถูกชั่งน้ำหนักและวงเล็บหายไป โดยการเพิ่มอักขระ escape คำสั่งจะกลายเป็น “1girl, ganyu \ ( genshin impact \) “ ตามที่คาดไว้.
โดยสรุป การมาตรฐานแท็กแบ่งออกเป็นสองขั้นตอน: (i) แทนที่ขีดล่างด้วยช่องว่างในแต่ละแท็ก และ (ii) เพิ่มแบ็คสแลช “\” ก่อนวงเล็บ.
แท็กที่มาจาก Danbooru และ e621 มีผลการแสดงออกที่แข็งแกร่งกว่า. ดังนั้นแทนที่จะสร้างแท็กของคุณเอง เราขอแนะนำให้ผู้อ่านค้นหาแท็กโดยตรงจากเว็บไซต์ทั้งสองนี้ ควรสังเกตว่าแท็กที่ได้มาโดยตรงในลักษณะนี้จะแยกด้วยขีดล่าง “_” และวงเล็บจะไม่ได้รับการหลีกเลี่ยง ดังนั้นก่อนที่จะเพิ่มคำแนะนำในแท็กจากพวกเขา คุณต้องลบช่องว่างในแท็กและหลีกเลี่ยงวงเล็บ ตัวอย่างเช่น แท็กจาก Danbooru ” ganyu_ (genshin_impact) ” จะถูกจัดการเป็น “ganyu\ (genshin impact\) ” ก่อนการใช้งาน.
อย่าใช้แท็กเมตาที่ไม่ถูกต้อง. แท็กเมตา ( แท็กเมตา ) เป็นประเภทแท็กพิเศษใน Danbooru ที่ใช้เพื่อระบุลักษณะของไฟล์ภาพหรือผลงานเอง ตัวอย่างเช่น ” highres ” ระบุว่าภาพมีความละเอียดสูง “ oil_painting_ (medium) ” ระบุว่าภาพอยู่ในสไตล์ของการวาดภาพด้วยน้ำมัน อย่างไรก็ตาม ไม่ได้แท็กเมตาทุกตัวที่เกี่ยวข้องกับเนื้อหาหรือรูปแบบของภาพ ตัวอย่างเช่น ” commentary_request ” ระบุว่าบทความใน Danbooru มีคำขอแปลสำหรับผลงาน ซึ่งไม่มีความสัมพันธ์โดยตรงกับผลงานเองและจึงไม่มีผลกระทบ.
คำกระตุ้นตามลำดับจะดีกว่า. NoobAI-XL แนะนำให้เขียนคำสั่งในลำดับที่มีเหตุผล จากหลักไปถึงรอง หนึ่งในลำดับการเขียนที่เป็นไปได้มีดังนี้ สำหรับการอ้างอิงเท่านั้น:
< 1girl/1boy/1other/female/male/… >, < ตัวละคร >, < ซีรีส์ >, < ศิลปิน (s) >, < แท็กทั่วไป >, < แท็กอื่นๆ >, < แท็กคุณภาพ & ความงาม >
ในหมู่พวกเขา < แท็กคุณภาพ & ความงาม > สามารถมีการเติมหน้า.
คำสั่งภาษาธรรมชาติประกอบด้วยประโยค โดยแต่ละประโยคเริ่มต้นด้วยตัวพิมพ์ใหญ่และสิ้นสุดด้วยจุด “.”. โมเดลอนิเมะส่วนใหญ่ รวมถึง NoobAI-XL มีความเข้าใจที่ดีกว่าเกี่ยวกับแท็ก ดังนั้น ภาษาธรรมชาติมักใช้เป็นส่วนเสริมมากกว่าที่จะเป็นส่วนประกอบหลักในคำสั่ง.
NoobAI-XL สนับสนุนการสร้างตัวละครและสไตล์ศิลปินที่สร้างขึ้นจากแฟนๆ ได้โดยตรง ตัวละครและสไตล์ถูกกระตุ้นโดยชื่อซึ่งยังเป็นแท็กที่เรียกว่า trigger words คุณสามารถค้นหาโดยตรงที่ Danbooru หรือ e621 และ มาตรฐานแท็กที่ได้มาเป็นคำสั่ง.
มีความแตกต่างบางประการในวิธีการกระตุ้นตัวละครและศิลปิน.
ตารางด้านล่างแสดงกรณีที่ถูกต้องและไม่ถูกต้องบางประการของการกระตุ้นตัวละครและสไตล์:
| ประเภท | คำสั่ง | ถูกต้องหรือไม่ถูกต้อง | เหตุผล |
| บทบาท | Rei Ayanami | ไม่ถูกต้อง | ชื่อของตัวละครควรเป็น ” ayanami rei “.ไม่มีแท็กซีรีส์ ” neon genesis evangelion ” ที่เพิ่มเข้ามา. |
| บทบาท | character:ganyu \(genshin impact\), genshin impact | ไม่ถูกต้อง | เพิ่มคำนำหน้า “character:” อย่างผิวเผิน. |
| บทบาท | ganyu_\(genshin impact\) | ไม่ถูกต้อง | ไม่มีแท็กที่ถูกต้องทั้งหมด: ไม่ควรมีขีดล่าง. ไม่มีแท็กซีรีส์ที่เพิ่มเข้ามา. |
| บทบาท | ganyu (genshin impact), genshin impact | ไม่ถูกต้อง | ไม่มีแท็กที่ถูกต้องทั้งหมด: วงเล็บไม่ได้รับการหลีกเลี่ยง. |
| บทบาท | ganyu (genshin impact\), genshin impact | ไม่ถูกต้อง | ไม่มีแท็กที่ถูกต้องทั้งหมด: วงเล็บซ้ายไม่ได้รับการหลีกเลี่ยง. |
| บทบาท | ganyu \(genshin impact\),genshin impact | ไม่ถูกต้อง | แยกแท็กสองแท็กด้วยจุลภาคจีน |
| บทบาท | ganyu \(genshin impact\), genshin impact | ถูกต้อง | |
| สไตล์ศิลปิน | by wlop | ไม่ถูกต้อง | เพิ่มคำนำหน้า “by” อย่างผิวเผิน. |
| สไตล์ศิลปิน | artist:wlop | ไม่ถูกต้อง | เพิ่มคำนำหน้า “artist:” อย่างผิวเผิน. |
| สไตล์ศิลปิน | dino | ไม่ถูกต้อง | ชื่อศิลปินไม่ถูกต้อง ชื่อศิลปินของ aidxl/artiwaifu ไม่ควรใช้ แต่ควรปฏิบัติตาม Danbooru ดังนั้นจึงเป็น ” dino\ (dinoartforame\) “ |
| สไตล์ศิลปิน | wlop | ถูกต้อง |
เพื่อความสะดวก เราได้จัดเตรียมแบบฟอร์มคำกระตุ้นที่สมบูรณ์ใน noob-wiki เพื่อการอ้างอิงของคุณ:
| ประเภทตาราง | ลิงก์ดาวน์โหลด |
| ตัวละคร Danbooru | คลิกที่นี่ |
| สไตล์ศิลปิน Danbooru | คลิกที่นี่ |
| ตัวละคร E621 | คลิกที่นี่ |
| สไตล์ศิลปิน E621 | คลิกที่นี่ |
แต่ละแบบฟอร์มเหล่านี้มีตารางคำกระตุ้นจากหนึ่งในฐานข้อมูล Danbooru และ e621 แต่ละแถวของตารางแสดงถึงตัวละครหรือสไตล์ศิลปิน คุณเพียงแค่ต้องค้นหาแถวที่ตรงกับตัวละครหรือสไตล์ศิลปินที่ต้องการ คัดลอกส่วน ” trigger ” และวางลงในคำสั่งตามที่เป็นอยู่ หากคุณไม่แน่ใจเกี่ยวกับตัวละครหรือสไตล์ศิลปิน คุณยังสามารถคลิกที่ลิงก์ในคอลัมน์ “url” เพื่อดูภาพตัวอย่างบนเว็บไซต์ ตารางด้านล่างอธิบายความหมายของแต่ละคอลัมน์ ไม่ได้ตารางทุกตารางมีทุกคอลัมน์.
| ระบุ | ความหมาย | หมายเหตุ |
| ตัวละคร | ชื่อแท็กของบทบาทในเว็บไซต์ที่เกี่ยวข้อง. | |
| ศิลปิน | สไตล์ศิลปินในชื่อแท็กของเว็บไซต์ที่เกี่ยวข้อง. | |
| trigger | คำกระตุ้นหลังจากการมาตรฐาน. | คัดลอกและวางลงในคำสั่งตามที่เป็นอยู่และใช้งาน. |
| count | จำนวนภาพที่มีแท็กนี้. | เป็นการคาดหวังระดับการฟื้นฟูของแนวคิดนี้ สำหรับตัวละคร จำนวนที่สูงกว่า 200 สามารถฟื้นฟูได้ดีกว่า สำหรับสไตล์ จำนวนที่สูงกว่า 100 สามารถฟื้นฟูได้ดีกว่า. |
| url | หน้าของแท็กในเว็บไซต์ต้นฉบับ. | |
| solo_count | จำนวนภาพในชุดข้อมูลที่มีแท็กนี้และมีตัวละครเพียงตัวเดียวในภาพ. | เฉพาะตารางบทบาท สำหรับบทบาท solo_count ที่สูงกว่า 50 สามารถฟื้นฟูได้ดีกว่า เมื่อระดับการลดลงถูกตัดสินจากจำนวน จำนวนในคอลัมน์มีความเบี่ยงเบนขนาดใหญ่และความแม่นยำต่ำ ในขณะที่ solo_count เป็นตัวชี้วัดที่แม่นยำมากกว่า. |
| core_tags | แท็กลักษณะหลักของตัวละครรวมถึงลักษณะเพศและเสื้อผ้า แยกด้วยจุลภาคภาษาอังกฤษ แท็กแต่ละแท็กได้รับการมาตรฐาน. | เฉพาะรายการตัวละครของ Danbooru เมื่อกระตุ้นตัวละครที่ไม่เป็นที่นิยมและระดับการฟื้นฟูไม่เพียงพอ สามารถเพิ่มแท็กลักษณะหลักหลายแท็กเพื่อเสริมสร้างระดับการฟื้นฟู. |
แท็กพิเศษเป็นประเภทแท็กที่มีความหมายและผลกระทบพิเศษที่ทำหน้าที่เป็นฟังก์ชันเสริม.
แท็กคุณภาพเป็นแท็กความนิยมที่ได้มาจากข้อมูลสถิติที่อิงตามความชอบของผู้ใช้ Danbooru และ e621 โดยเรียงตามคุณภาพจากสูงไปต่ำ:
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
แท็กความงามถูกจัดอันดับตามโมเดลการให้คะแนนความงาม ขณะนี้มีเพียงสองแท็ก ” very awa ” และ ” worst aesthetic “. แท็กแรกคือข้อมูลที่มีคะแนนจาก waifu-scorer-v3 และ waifu-scorer-v4-beta ที่มีคะแนนใน 5% แรก และแท็กหลังคือข้อมูลที่มีคะแนนใน 5% ล่าง มันถูกตั้งชื่อ very awa เนื่องจากมาตรฐานความงามของมันคล้ายกับ A rti Wa ifu Diffusion โมเดล นอกจากนี้ แท็กความงามที่ยังอยู่ในระหว่างการฝึกและไม่มีผลกระทบที่ชัดเจนคือ “very as2″ ซึ่งเป็นข้อมูลที่มีคะแนน ” aesthetic-shadow-v2-5 ใน 5% แรก.
การเปรียบเทียบผลกระทบของแท็กความงาม
มีแท็กความปลอดภัย/การจัดอันดับสี่แท็ก: ทั่วไป , ละเอียดอ่อน , nsfw และ ชัดเจน .
เราหวังว่าผู้ใช้จะเพิ่ม “nsfw” ในคำสั่งเชิงลบเพื่อกรองเนื้อหาที่ไม่เหมาะสมโดยสำนึก. 😀
แท็กปีใช้เพื่อระบุปีที่สร้างผลงาน ซึ่งมีผลกระทบต่อคุณภาพ สไตล์ ระดับการฟื้นฟูตัวละคร เป็นต้น รูปแบบของมันคือ ” ปี xxxx “ โดยที่ “xxxx” คือปีที่เฉพาะเจาะจง เช่น “ปี 2024”.
แท็กระยะเวลาเป็นแท็กปีที่มีผลกระทบอย่างมีนัยสำคัญต่อคุณภาพของภาพ ความสัมพันธ์ระหว่างแท็กและปีแสดงในตารางด้านล่าง.
| ช่วงปี | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| แท็กระยะเวลา | ใหม่ที่สุด | ล่าสุด | กลาง | ต้น | เก่า |
ส่วนนี้ให้ตัวอย่างการใช้งานคำสั่งที่แนะนำเพื่อการอ้างอิงเท่านั้น.
จุดเริ่มต้นที่แนะนำต่อไปนี้ใช้แท็กพิเศษ ซึ่งเป็นแท็กที่มีความสัมพันธ์สูงสุดกับคุณภาพของภาพ.
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
ตารางต่อไปนี้แนะนำแท็กเชิงลบทั่วไปและแหล่งที่มา ไม่ได้แท็กเชิงลบทั้งหมดจะไม่ดี และการใช้งานอย่างเหมาะสมอาจมีผลลัพธ์ที่ไม่คาดคิด.
| แท็ก | การแปล | หมายเหตุ | แหล่งที่มา |
| แท็กคุณภาพ | |||
| worst aesthetic | ความงามที่เลวร้ายที่สุด | มีแนวคิดความงามต่ำ เช่น คุณภาพต่ำ ลายน้ำ การ์ตูน มุมมองหลายมุม และภาพร่างที่ยังไม่เสร็จ | ความงาม |
| worst quality | คุณภาพที่เลวรRelated Posts![]() Guide to Prompting with Illustrious ModelsComplicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt... ![]() Guide to AI Pose Prompting (NSFW)This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ... ![]() Can Chatgpt GPT-4o image generation do NSFW/nudity? GPT-4o massive nerf and other findingsGPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren... ![]() Automatic1111 Stable Diffusion WebUI for Hentai Generation (SD1.5 Tutorial)This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif... | ||