
By gerogero
Updated: February 7, 2026
Dieses Dokument bietet eine umfassende, vollständige und aktuelle Einführung in das NoobAI-XL Modell.
NoobAI-XL ist ein Text-zu-Bild-Diffusionsmodell, das von Laxhar Dream Lab entwickelt und von Lanyun gesponsert wird.
Das Modellzertifikat stammt von fair-ai-public-license-1.0-sd und hat einige Einschränkungen (siehe NoobAI-XL Modellzertifikat). Das Modell basiert auf der Modellarchitektur von SDXL. Sein Basismodell ist das Illustrious-xl-early-release-v0 Modell. Es wurde auf den vollständigen Danbooru und e621 Datensätzen (ca. 13 Millionen Bilder) über eine große Anzahl von Runden trainiert, mit umfangreichem Wissen und hervorragender Leistung.
NoobAI-XL hat ein enormes Wissen, das die Stile von Zehntausenden von 2D-Charakteren und Künstlern wiederherstellen kann, eine große Anzahl von speziellen Konzepten in 2D erkennen kann und über umfangreiches Wissen über Furries verfügt.
NoobAI-XL bietet sowohl Rauschvorhersage (oder auch Epsilon-Vorhersage) als auch V-Vorhersage Versionen an. Kurz gesagt, die Rauschvorhersage-Version erzeugt vielfältigere und kreativere Bilder, während die V-Vorhersage-Version den Prompts mehr folgt und Bilder mit einem breiteren Farbspektrum und stärkerem Licht erzeugt.
NoobAI-XL hat eine zunehmend reiche Unterstützung durch die Community, einschließlich verschiedener LoRA, ControlNet , IP-Adapter usw.
NoobAI-XL umfasst eine Reihe von Modellen, hauptsächlich Rauschvorhersage und V-Vorhersage, die später im Detail beschrieben werden.
Bevor Sie diesen Abschnitt lesen, sollten die Leser bereits die grundlegende Nutzung jeder Art von Rohbild-Benutzeroberfläche wie WebUI , ComfyUI , forge oder reForge . Andernfalls müssen die Leser von hier oder aus dem Internet (wie Bilibili usw.) lernen.
| Seite | Link |
| CivitAI | Hier klicken |
| LiblibAI | Hier klicken |
| Huggingface | Hier klicken |
Wenn Sie nicht wissen, welches Modell Sie herunterladen sollen, können Sie hier browsen .
NoobAI-XL-Modelle sind in zwei Kategorien unterteilt: Rauschvorhersage (Epsilon-Vorhersage , oder abgekürzt eps-pred ) Modelle und V-Vorhersage (v-Vorhersage , oder abgekürzt v-pred ) Modelle. Modelle mit den Wörtern „eps“, „epsilon-pred“ oder „eps-pred“ in ihren Namen sind Rauschvorhersagemodelle, die sich nicht viel von anderen Modellen unterscheiden. Wenn Sie diese verwenden, können Sie diesen Abschnitt direkt überspringen. Modelle mit den Wörtern „v“ oder „v-pred“ in ihren Namen sind V-Vorhersagemodelle, die sich von den meisten konventionellen Modellen unterscheiden. Bitte lesen Sie die Installationsanleitung in diesem Abschnitt sorgfältig! Das Prinzip des V-Vorhersagemodells finden Sie in diesem Artikel .
V-Vorhersage ist eine relativ seltene Modelltrainingstechnik. Modelle, die mit dieser Technik trainiert wurden, werden als V-Vorhersagemodelle bezeichnet. Im Vergleich zur Rauschvorhersage sind V-Vorhersagemodelle bekannt für ihre höhere Gehorsamkeit gegenüber Hinweisen, umfassenderes Farbspektrum und stärkeren Licht- und Schatteneffekten, dargestellt durch NovelAI Diffusion V3 und COSXL . Aufgrund ihres späten Erscheinens und der geringeren Anzahl solcher Modelle unterstützen einige Mainstream-Grafikprojekte und UIs dies nicht direkt. Daher müssen Sie, wenn Sie V-Vorhersagemodelle verwenden möchten, einige zusätzliche Operationen durchführen. In diesem Abschnitt wird die spezifische Nutzung vorgestellt. Wenn Sie während der Verwendung auf Schwierigkeiten stoßen, können Sie auch direkt jeden Modellautor um Hilfe bitten.
Forge und reForge sind zwei KI-Bildgenerierung-UIs, die von lllyasviel und Panchovix entwickelt wurden, beide sind erweiterte Versionen von WebUI. Ihr Hauptzweig unterstützt das V-Vorhersagemodell, und der Betriebsmodus ist fast identisch mit WebUI, daher werden sie empfohlen. Wenn Sie eines von ihnen installiert haben, müssen Sie nur git pull im Installationsverzeichnis ausführen und es neu starten; wenn Sie es nicht installiert haben, können Sie sich an das Online-Tutorial zur Installation und Nutzung halten.
ComfyUI ist eine Bildgenerierungs-UI, die von comfyanonymous entwickelt wurde und es den Benutzern ermöglicht, Knoten frei zu manipulieren, benannt nach ihrer Flexibilität und Professionalität. Die Verwendung des V-Vorhersagemodells erfordert nur das Hinzufügen zusätzlicher Knoten.
WebUI ist ein Projekt stable-diffusion-webui , das von AUTOMATIC1111 entwickelt wurde. Derzeit unterstützt der Hauptzweig von WebUI, der Hauptzweig ist, das V-Vorhersagemodell nicht und muss auf dev umgeschaltet werden. Bitte beachten Sie, dass diese Methode instabil ist und Fehler auftreten können. Unsachgemäße Verwendung kann sogar zu irreversiblen Schäden an WebUI führen. Daher sollten Sie Ihr WebUI im Voraus sichern. Die spezifische Methode ist wie folgt:
git checkout dev ein und drücken Sie die Eingabetaste.Diffusers ist eine dedizierte Python-Diffusionsmodellbibliothek. Diese Nutzung erfordert, dass die Benutzer über eine gewisse Programmiergrundlage verfügen, und wird Entwicklern und Forschern empfohlen. Beispielcode:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL hat keine strengen Anforderungen an die Prompt-Wörter, und die empfohlenen Aktionen in diesem Artikel sind das Sahnehäubchen.
NoobAI-XL empfiehlt, dass Benutzer Tags als Prompt verwenden, um den gewünschten Inhalt hinzuzufügen. Jedes Tag ist ein englisches Wort oder eine Phrase, die durch ein englisches Komma „,“ getrennt ist, und Tags, die direkt von Danbooru und e621 stammen, haben stärkere Effekte. Für weitere Verbesserungen siehe die Prompt-Spezifikation später.
Wir empfehlen, immer das ästhetische Tag „very awa“ und das Qualitäts-Tag „masterpiece“ zu Ihrem Prompt hinzuzufügen.
NoobAI-XL unterstützt die Generierung von hochauflösenden Charakteren und Künstlerstilen, die beide durch Tags ausgelöst werden, die wir „Trigger-Wörter“ nennen. Unter ihnen sind die Trigger-Wörter für Charaktere ihre Charakternamen; die Trigger-Wörter für Künstlerstile sind die Namen der Künstler. Die vollständige Trigger-Wort-Tabelle kann von noob-wiki heruntergeladen werden. Detaillierte Erklärungen zu Trigger-Wörtern finden Sie unten .
Ähnlich wie NovelAI unterstützt NoobAI-XL spezielle Tags wie Qualität, Ästhetik, Jahr der Entstehung, Entstehungszeitraum und Sicherheitsbewertung zu Hilfszwecken. Interessierte Leser können die detaillierte Einführung im folgenden Text sehen.
Die folgende Tabelle empfiehlt drei Generierungsparameter: Sampler , Sampling-Schritte und CFG-Skala . Fett wird dringend empfohlen; fett in rot ist eine harte Anforderung. Die Verwendung von anderen Parameterwerten als diesen wird unerwartete Effekte mit sich bringen.
| Versionsnummer | Alle Rauschvorhersage-Versionen | V-Vorhersage 1.0 Version | V-Vorhersage 0.9r Version | V-Vorhersage 0.75s Version | V-Vorhersage 0.65s Version | V-Vorhersage Version 0.6 | V-Vorhersage Version 0.5 | V-Vorhersage Beta |
| Empfohlene Parameter | Sampler: Euler A CFG: 5~ 7 Sampling-Schritte: 28~ 35 | Sampler: Euler CFG: 3.5 ~ 5.5 Sampling-Schritte: 32~ 40Sampler: Euler A CFG: 3 ~ 5 Sampling-Schritte: 28~ 40 | Sampler: Euler CFG: 3.5 ~ 5.5 Sampling-Schritte: 32~ 40Sampler: Euler A CFG: 3 ~ 5 Sampling-Schritte: 28~ 40 | Sampler: Euler A CFG: 3 ~ 5 Sampling-Schritte: 28~ 40 | Sampler: Euler A oder Euler CFG: 3.5 ~ 5.5 Sampling-Schritte: 32~ 40Sampler: Euler A CFG: 5 ~ 7 Sampling-Schritte: 28~ 40 | Sampler: Euler CFG: 3.5~ 5.5 Sampling-Schritte: 28~ 35 | Sampler: Euler CFG: 3.5~ 5.5 Sampling-Schritte: 28~ 40 | Sampler: Euler A CFG: 5~ 7 Sampling-Schritte: 28~ 35 |
Für das V-Vorhersagemodell werden die folgenden Parameter empfohlen, um (i) Farbe, Beleuchtung und Details zu optimieren; (ii) die Effekte von Übersättigung und Überbelichtung zu beseitigen; und (iii) das semantische Verständnis zu verbessern.
Die Auflösung (Breite x Höhe) des generierten Bildes ist ein wichtiger Parameter. Allgemein gesagt, aus architektonischen Gründen müssen alle SDXL-Modelle, einschließlich NoobAI-XL, eine spezifische Auflösung verwenden, um den besten Effekt zu erzielen. Es sind keine mehr oder weniger Pixel erlaubt, andernfalls wird die Qualität des generierten Bildes beeinträchtigt. Die empfohlene Auflösung von NoobAI-XL ist in der folgenden Tabelle dargestellt:
| Auflösung (B x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| Proportion | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
Sie können auch eine größere Bereichsauflösung verwenden, obwohl dies nicht stabil ist. (Laut SD3-Forschung wird die Unsicherheit des Modells ein Vielfaches des Originals $$k^$$, wenn der generierte Bereich ein $$$$Vielfaches des Originals wird.) Wir empfehlen, dass der generierte Bildbereich 1,5-mal das Original nicht überschreitet. Zum Beispiel 1024×1536.
Wenn Sie an dem Modell interessiert sind und mehr darüber erfahren möchten, bietet dieser Abschnitt eine detaillierte Anleitung zur Verwendung des Modells.
NoobAI-XL umfasst mehrere verschiedene Versionen des Basismodells für eine Reihe. Die folgende Tabelle fasst die Merkmale jeder Version zusammen.
| Versionsnummer | Vorhersageart | Download-Link | Iteration seit | Versionsmerkmale |
| Early-Access | Rauschvorhersage | CivitAIHuggingface | Illustrious-xl-early-release-v0 | Die früheste Version, hat aber bereits ausreichendes Training. |
| Epsilon-pred 0.5 | Rauschvorhersage | CivitAIHuggingface | Early-Access | (Empfohlen) Die stabilste Version, der einzige Nachteil ist das Fehlen von Wissen über obskure Konzepte. |
| Epsilon-pred 0.6 | Rauschvorhersage | Huggingface | Early-Access 0.5 | (Empfohlen) Die letzte Version des UNet-Trainings hat einen hervorragenden Konvergenzeffekt. Das Testteam wird „178000“ genannt, was von vielen geschätzt wird. |
| Epsilon-pred 0.75 | Rauschvorhersage | CivitAIHuggingface | Epsilon-pred 0.6 | Der Textencoder (TTE) wurde trainiert, um mehr obskures Wissen zu lernen, aber die Qualitätsleistung verschlechterte sich. |
| Epsilon-pred 0.77 | Rauschvorhersage | Huggingface | Epsilon-pred 0.75 | Wurde zwei weitere Epochen auf der Basis von Epsilon-pred 0.75 trainiert, um die Leistungsverschlechterung zu verbessern. |
| Epsilon-pred 1.0 | Rauschvorhersage | CivitAIHuggingface | Epsilon-pred 0.77 | (Empfohlen) Zusätzliche 10 Runden Training zur Konsolidierung des neuen Wissens von tte, Leistungsbalance. |
| Pre-test | V-Vorhersage | CivitAIHuggingface | Epsilon-pred 0.5 | (Nicht empfohlen) Erste experimentelle Version der V-Vorhersage. |
| V-pred 0.5 | V-Vorhersage | CivitAIHuggingface | Epsilon-pred 1.0 | (Nicht empfohlen) Es gibt ein Problem mit hoher Sättigung. |
| V-pred 0.6 | V-Vorhersage | CivitAIHuggingface | V-pred 0.5 | (Nicht empfohlen) Basierend auf den vorläufigen Bewertungsergebnissen schneidet V-pred0.6 gut in der Abdeckung seltener Kenntnisse ab und erreicht das höchste Niveau unter den derzeit veröffentlichten Modellen. Gleichzeitig verbessert das Modell das Problem der Qualitätsverschlechterung erheblich. |
| V-pred 0.65 | V-Vorhersage | Huggingface | V-pred 0.6 | (Nicht empfohlen) Es gibt ein Sättigungsproblem. |
| V-pred 0.65s | V-Vorhersage | CivitAIHuggingface | V-pred 0.6 | Das Sättigungsproblem ist fast gelöst! Aber es gibt ein Artefaktproblem, das in der nächsten Version gelöst wird. |
| Epsilon-pred 1.1 | Rauschvorhersage | CivitAIHuggingface | Epsilon-pred 1.0 | (Empfohlen) Das Problem der durchschnittlichen Helligkeit wurde gelöst, und alle Aspekte haben sich verbessert. |
| V-pred 0.75 | V-Vorhersage | Huggingface | V-pred 0.65 | (Nicht empfohlen) Es gibt ein Sättigungsproblem. |
| V-pred 0.75s | V-Vorhersage | CivitAIHuggingface | V-pred 0.65 | (Empfohlen) Behebt Sättigung in extremen Situationen, Restgeräusche und Artefaktprobleme. |
| V-pred 0.9r | V-Vorhersage | CivitAI | V-pred 0.75 | Trainiert mit ~10% Realismusdaten. Hat Abbau. |
| V-pred 1.0 | V-Vorhersage | CivitAI | V-pred 0.75 | (Empfohlen) Best ausgewogene Qualität/Leistung/Farbe. |
| Vorhersageart | ControlNet-Typ | Link | Vorverarbeitertyp | Bemerkungen |
| Rauschvorhersage | Hed soft edge | CivitAIHuggingface | softedge_hed | |
| Rauschvorhersage | Anime lineart | CivitAIHuggingface | lineart_anime | |
| Rauschvorhersage | Midas normal map | CivitAIHuggingface | normal_midas | |
| Rauschvorhersage | Midas depth map | CivitAIHuggingface | depth_midas | |
| Rauschvorhersage | Canny contour | CivitAIHuggingface | canny | |
| Rauschvorhersage | Openpose human skeleton | CivitAIHuggingface | openpose | |
| Rauschvorhersage | Manga line | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| Rauschvorhersage | Realistic lineart | CivitAIHuggingface | lineart_realistic | |
| Rauschvorhersage | Midas depth map | CivitAIHuggingface | depth_midas | Neue Version |
| Rauschvorhersage | HED scribble | CivitAIHuggingface | scribble_hed | |
| Rauschvorhersage | Pidinet scribble | CivitAIHuggingface | scribble_pidinet | |
| Rauschvorhersage | Tile | CivitAIHuggingface | tile |
Bitte beachten Sie, dass Sie bei der Verwendung von ControlNet den Typ des Vorverarbeiters, den Sie verwenden, mit dem Typ des Vorverarbeiters, den ControlNet benötigt, ABGLEICHEN MÜSSEN. Darüber hinaus IST ES MÖGLICH, DASS SIE den Vorhersagetyp des Basismodells nicht mit dem Vorhersagetyp von ControlNet ABGLEICHEN MÜSSEN.
Kommt bald.
Die meisten LoRAs können sowohl für Rauschvorhersage- als auch für V-Vorhersage-Versionen verwendet werden und umgekehrt.
Zunächst müssen wir klarstellen, dass die Rolle der Prompts darin besteht, zu leiten. Gute Prompts können das Potenzial des Modells entfalten, aber schlechte oder sogar falsche Prompts müssen nicht unbedingt die Ergebnisse verschlechtern. Verschiedene Modelle haben unterschiedliche optimale Prompt-Nutzungen, und die Auswirkungen einer Fehlanwendung sind oft nicht offensichtlich, und in einigen Fällen kann es sogar zu Verbesserungen führen. Dieser Prompt-Leitfaden dokumentiert die theoretisch besten Prompt-Engineering des Modells, und fähige Leser können es auch frei verwenden.
Dieser Abschnitt bietet eine detaillierte Anleitung zum Schreiben von Prompts, einschließlich der Schreibstandards für Prompts, der spezifischen Verwendung von Rollen- und Stil-Trigger-Wörtern, der Verwendung spezieller Tags usw. Leser, die an Prompt-Engineering interessiert sind, können auswählen, ob sie selektiv lesen möchten.
NoobAI-XL hat die gleiche Prompt-Spezifikation wie andere animeähnliche Basismodelle. Dieser Abschnitt wird systematisch die grundlegenden Schreibspezifikationen von Prompts vorstellen und den Lesern helfen, häufige Missverständnisse in der Community auszuräumen.
Je nach Format können Prompts grob in zwei Kategorien unterteilt werden: Tags und natürliche Sprache. Erstere werden hauptsächlich für Anime-Modelle verwendet, letztere hauptsächlich für reale Modelle. Unabhängig davon, welches Prompt verwendet wird, sollte es, sofern das Modell nichts anderes angibt, nur englische Buchstaben, Zahlen und Symbole enthalten.
Tags bestehen aus kleingeschriebenen englischen Wörtern oder Phrasen, die durch englische Kommas „,“ getrennt sind, zum Beispiel enthält „1girl, solo, blue hair“ drei Tags: „1girl“, „solo“ und „blue hair“.
Die zusätzlichen Leerzeichen und Zeilenumbrüche im Prompt beeinflussen nicht den tatsächlichen Generierungseffekt. Mit anderen Worten, „1girl, solo, blue hair“ und „1girl, solo, blue hair“ haben genau den gleichen Effekt.
Prompts sollten keine Unterstriche „_“ enthalten. Beeinflusst von Websites wie Danbooru hat sich die Verwendung von Unterstrichen „_“ anstelle von Leerzeichen zwischen Wörtern als Tags verbreitet, was tatsächlich eine Fehlanwendung ist und dazu führt, dass die generierten Ergebnisse von denen mit Leerzeichen abweichen. Die meisten Modelle, einschließlich NoobAI-XL, empfehlen nicht, Unterstriche in Prompts einzufügen. Diese Fehlanwendung kann bestenfalls die Qualität der Generierung beeinträchtigen und schlimmstenfalls die Trigger-Wörter vollständig ungültig machen.
Setzen Sie Klammern bei Bedarf in Escape. Klammern, einschließlich runder Klammern (), eckiger Klammern [] und geschweifter Klammern {}, sind sehr spezielle Symbole in Prompts. Im Gegensatz zu allgemeinen Symbolen werden Klammern in den meisten Bildgenerierungs-UIs als Gewichtung spezifischer Inhalte interpretiert, und die Klammern, die an der Gewichtung teilnehmen, spielen nicht ihre ursprüngliche Bedeutung. Was ist jedoch, wenn das ursprüngliche Prompt Klammern enthalten muss, wie einige Trigger-Wörter? Die Antwort ist, dass die Gewichtungsfunktion der Klammern durch das Hinzufügen eines Backslashes „\“ vor den Klammern eliminiert werden kann. Diese Operation, die die ursprüngliche Bedeutung eines Zeichens ändert, wird als Escape bezeichnet, und Backslashes werden auch als Escape-Zeichen bezeichnet. Zum Beispiel wird das Prompt „1girl, ganyu ( genshin impact ) “ ohne Verwendung eines Backslashes fälschlicherweise als „1girl, ganyu genshin impact“ interpretiert, wobei „genshin impact“ gewichtet wird und die Klammern verschwinden. Durch das Hinzufügen eines Escape-Zeichens wird das Prompt zu „1girl, ganyu \ ( genshin impact \) “, wie erwartet.
Zusammenfassend lässt sich sagen, dass die Standardisierung von Tags in zwei Schritte unterteilt ist: (i) Ersetzen von Unterstrichen durch Leerzeichen in jedem Tag, und (ii) Hinzufügen eines Backslashes „\“ vor Klammern.
Tags, die direkt von Danbooru und e621 stammen, haben eine stärkere Ausdruckskraft. Daher empfehlen wir den Lesern, Tags direkt auf diesen beiden Websites zu suchen, anstatt eigene Tags zu erstellen. Es sollte beachtet werden, dass Tags, die auf diese Weise direkt erhalten werden, durch einen Unterstrich „_“ getrennt sind und die Klammern nicht escaped sind. Daher müssen Sie, bevor Sie Hinweise zu Tags von ihnen hinzufügen, die Leerzeichen in den Tags entfernen und die Klammern escapen. Zum Beispiel behandeln Sie Tags von Danbooru „ganyu_ (genshin_impact) “ als „ganyu\ (genshin impact\) “ vor der Verwendung.
Verwenden Sie keine ungültigen Meta-Tags. Meta-Tags (Meta-Tags ) sind eine spezielle Art von Tag auf Danbooru, die verwendet werden, um die Eigenschaften von Bilddateien oder Werken selbst anzuzeigen. Zum Beispiel zeigt „highres “ an, dass das Bild eine hohe Auflösung hat, „oil_painting_ (medium) “ zeigt an, dass das Bild im Stil eines Ölgemäldes ist. Es ist jedoch zu beachten, dass nicht alle Meta-Tags mit dem Inhalt oder der Form des Bildes zusammenhängen. Zum Beispiel zeigt „commentary_request “ an, dass der Beitrag auf Danbooru eine Übersetzungsanfrage für das Werk hat, was keinen direkten Bezug zum Werk selbst hat und daher keine Wirkung hat.
Sequentielle Hinweiswörter sind besser. NoobAI-XL empfiehlt, Prompts in logischer Reihenfolge zu schreiben, von primär bis sekundär. Eine mögliche Schreibreihenfolge ist wie folgt, nur zur Referenz:
< 1girl/1boy/1other/weiblich/männlich/… >, < Charakter >, < Serie >, < Künstler (n) >, < allgemeine Tags >, < andere Tags >, < Qualitäts- & ästhetische Tags >
Unter ihnen können die < Qualitäts- & ästhetischen Tags > vorangestellt werden.
Natürliche Sprachprompts bestehen aus Sätzen, die jeweils mit einem Großbuchstaben beginnen und mit einem Punkt „.“ enden. Die meisten Anime-Modelle, einschließlich NoobAI-XL, haben ein besseres Verständnis für Tags, daher wird natürliche Sprache oft als Hilfsmittel und nicht als primärer Bestandteil in Prompts verwendet.
NoobAI-XL unterstützt die direkte Generierung einer großen Anzahl von von Fans erstellten Charakteren und Künstlerstilen. Charaktere und Stile werden durch Namen ausgelöst, die auch Tags sind, die Trigger-Wörter genannt werden. Sie können direkt auf Danbooru oder e621 suchen und die resultierenden Tags standardisieren als Prompts.
Es gibt einige Unterschiede in der Art und Weise, wie Charaktere und Künstler ausgelöst werden.
Die folgende Tabelle zeigt einige korrekte und falsche Fälle der Auslösung von Charakteren und Stilen:
| Typ | Prompt-Wort | Richtig oder falsch | Grund |
| Rolle | Rei Ayanami | Falsch | Der Charaktername sollte „ayanami rei “ sein. Kein Serien-Tag „neon genesis evangelion “ hinzugefügt. |
| Rolle | charakter:ganyu \(genshin impact\), genshin impact | Falsch | Das Präfix „charakter:“ wurde oberflächlich hinzugefügt. |
| Rolle | ganyu_\(genshin impact\) | Falsch | Keine vollständig normalisierten Tags: sollten keine Unterstriche enthalten. Keine Serien-Tags hinzugefügt. |
| Rolle | ganyu (genshin impact), genshin impact | Falsch | Keine vollständig normalisierten Tags: Klammern sind nicht escaped. |
| Rolle | ganyu (genshin impact\), genshin impact | Falsch | Keine vollständig normalisierten Tags: die linke Klammer ist nicht escaped. |
| Rolle | ganyu \(genshin impact\),genshin impact | Falsch | Zwei Tags mit einem chinesischen Komma getrennt |
| Rolle | ganyu \(genshin impact\), genshin impact | Richtig | |
| Künstlerstil | von wlop | Falsch | Das Präfix „von“ wurde oberflächlich hinzugefügt. |
| Künstlerstil | künstler:wlop | Falsch | Das Präfix „künstler:“ wurde oberflächlich hinzugefügt. |
| Künstlerstil | dino | Falsch | Der Künstlername ist falsch, der Künstlername von aidxl/artiwaifu sollte nicht verwendet werden, sondern sollte Danbooru folgen, also ist es „dino\ (dinoartforame\) “. |
| Künstlerstil | wlop | Richtig |
Zu Ihrer Bequemlichkeit stellen wir auch eine vollständige Trigger-Wort-Tabelle im noob-wiki zu Ihrer Referenz zur Verfügung:
| Tabellentyp | Download-Link |
| Danbooru Charakter | Hier klicken |
| Danbooru Künstlerstil | Hier klicken |
| E621 Charakter | Hier klicken |
| E621 Künstlerstil | Hier klicken |
Jede dieser Tabellen enthält eine Trigger-Wort-Tabelle aus einer der Datenbanken Danbooru und e621. Jede Zeile der Tabelle stellt einen Charakter oder Künstlerstil dar. Sie müssen nur die Zeile finden, die dem gewünschten Charakter oder Künstlerstil entspricht, das „Trigger“-Segment kopieren und es so in das Prompt-Wort einfügen. Wenn Sie sich über einen Charakter oder Künstlerstil unsicher sind, können Sie auch auf den Link in der „url“-Spalte klicken, um das Beispielbild auf der Website anzusehen. Die folgende Tabelle erklärt die Bedeutung jeder Spalte. Nicht jede Tabelle enthält alle Spalten.
| Aufgelistet | Bedeutung | Bemerkungen |
| charakter | Der Tagname der Rolle auf der entsprechenden Website. | |
| künstler | Künstlerstil im Tag-Namen der entsprechenden Website. | |
| trigger | Trigger-Wörter nach Standardisierung. | Kopieren und unverändert in das Prompt-Wort einfügen und verwenden. |
| count | Anzahl der Bilder mit diesem Tag. | Als Erwartung des Grades der Wiederherstellung dieses Konzepts. Für Charaktere kann eine Anzahl über 200 besser wiederhergestellt werden. Für Stile kann eine Anzahl über 100 besser wiederhergestellt werden. |
| url | Tag-Seite auf der Original-Website. | |
| solo_count | Die Anzahl der Bilder im Datensatz mit diesem Tag und nur einem Charakter im Bild. | Nur für Rollen. Für Rollen kann eine solo_count über 50 besser wiederhergestellt werden. Wenn der Grad der Reduzierung anhand der Anzahl beurteilt wird, ist die Abweichung der Anzahl-Spalte groß und die Genauigkeit niedrig, während solo_count ein genauerer Indikator ist. |
| core_tags | Die Kernmerkmale-Tags des Charakters umfassen Aussehen, Geschlecht und Kleidung. Durch englische Kommas getrennt, jedes Tag wurde standardisiert. | Nur Danbooru Charakterliste. Wenn unpopuläre Charaktere ausgelöst werden und ihr Wiederherstellungsgrad unzureichend ist, können mehrere Kernmerkmale-Tags hinzugefügt werden, um den Wiederherstellungsgrad zu verbessern. |
Spezielle Labels sind eine Art von Label mit speziellen Bedeutungen und Effekten, die als Hilfsfunktion dienen.
Qualitäts-Tags sind eigentlich Beliebtheits-Tags, die aus statistischen Daten basierend auf den Benutzerpräferenzen von Danbooru und e621 gewonnen werden. In der Reihenfolge der Qualität von hoch nach niedrig:
masterpiece > beste Qualität > hohe Qualität / gute Qualität > normale Qualität > niedrige Qualität / schlechte Qualität > schlechteste Qualität
Ästhetische Tags werden gemäß dem ästhetischen Bewertungsmodell bewertet. Bisher gibt es nur zwei, „very awa “ und „worst aesthetic “. Erstere sind die Daten mit waifu-scorer-v3 und waifu-scorer-v4-beta gewichteten Scores in den oberen 5%, und letztere sind die Daten mit den unteren 5%. Es wird „very awa“ genannt, weil seine ästhetischen Standards ähnlich sind wie das A rti Wa ifu Diffusion Modell. Darüber hinaus gibt es ein ästhetisches Tag, das sich noch in der Ausbildung befindet und keine offensichtliche Wirkung hat, nämlich „very as2“, das die Daten mit „aesthetic-shadow-v2-5 “ Scores in den oberen 5% enthält.
Vergleich der Effekte ästhetischer Labels
Es gibt vier Sicherheits-/Bewertungs-Tags: allgemein , sensibel , nsfw und explizit .
Wir hoffen, dass die Benutzer bewusst „nsfw“ in negativen Prompts hinzufügen, um unangemessene Inhalte herauszufiltern. 😀
Das Jahr-Tag wird verwendet, um das Jahr der Entstehung des Werkes anzuzeigen, was indirekt die Qualität, den Stil, den Grad der Charakterwiederherstellung usw. beeinflusst. Sein Format ist „Jahr xxxx “, wobei „xxxx“ ein spezifisches Jahr ist, wie „Jahr 2024“.
Perioden-Tags sind Jahr-Tags, die ebenfalls einen signifikanten Einfluss auf die Bildqualität haben. Die Zuordnung zwischen Tags und Jahren ist in der folgenden Tabelle dargestellt.
| Jahresbereich | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| Perioden-Label | neueste | aktuell | mittel | früh | alt |
Dieser Abschnitt bietet empfohlene Anwendungsbeispiele von Prompts nur zur Referenz.
Der folgende empfohlene Ausgangspunkt verwendet spezielle Tags, die die höchste Korrelation mit der Bildqualität aufweisen.
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
Die folgende Tabelle stellt gängige negative Tags und ihre Quellen vor. Nicht alle negativen Tags sind unbedingt schlecht, und ihre richtige Verwendung kann unerwartete Effekte haben.
| Tag | Übersetzung | Bemerkungen | Quelle |
| Qualitätslabel | |||
| worst aesthetic | Die schlechteste Ästhetik | Enthält niedrige ästhetische Konzepte wie niedrige Qualität, Wasserzeichen, Comics, Mehransichten und unvollendete Skizzen | Ästhetik |
| worst quality | Schlechteste Qualität | Qualität | |
| low quality | Niedrige Qualität | Die niedrige Qualität von Danbooru | Qualität |
| bad quality | Schlechte Qualität | Niedrige Qualität von e621 | Qualität |
| lowres | Niedrige Auflösung | Danbooru | |
| scan artifacts | Scanartefakt | Danbooru | |
| jpeg artifacts | JPEG-Bildkompressionsartefakt | Danbooru | |
| lossy-lossless | - | Bilder, die von einem verlustbehafteten Bildformat in ein verlustfreies Bildformat konvertiert wurden, sind normalerweise voller Artefakte. | Danbooru |
| Kompositions- und Kunstform-Labels | |||
| ai-generated | KI-generiert | Von KI generiert, hat oft ein fettiges Gefühl, das von KI erzeugt wird. | Danbooru |
| abstract | Abstrakt | Eliminiert unordentliche Linien | Danbooru |
| official art | Offizielle Kunst | Illustrationen, die von der offiziellen Firma/Künstler der Serie oder des Charakters erstellt wurden. Das Urheberrecht , Unternehmen oder Künstler Name und Urheberrechtsvermerk können irgendwo auf dem Bild gedruckt sein. | Danbooru |
| old | Frühe Bilder | Periode | |
| 4koma | Vier-Panel-Comic | Danbooru | |
| multiple views | Mehransicht | Danbooru | |
| reference sheet | Persönlichkeitsdesign | Danbooru | |
| dakimakura \(medium\) | Kissen-Diagramm | Danbooru | |
| turnaround | Vollkörper-Dreiansicht | Danbooru | |
| comic | Cartoon | Danbooru | |
| greyscale | Canary-Release-Karte | Schwarz-Weiß-Bild | Danbooru |
| monochrome | Monochrom | Schwarz-Weiß-Bild | Danbooru |
| sketch | Linienentwurf | Danbooru | |
| unfinished | Unvollendetes Werk | Danbooru | |
| E621-Label | |||
| furry | Furry | e621 | |
| anthro | Personifizierter Fury | e621 | |
| feral | Furry | e621 | |
| semi-anthro | Semianthropomorpher Fury | e621 | |
| mammal | Säugetiere (Fury) | e621 | |
| Wasserzeichen-Label | |||
| wasserzeichen | Wasserzeichen | Danbooru | |
| logo | LOGO | Danbooru | |
| signature | Künstlerunterschrift | Danbooru | |
| text | Text | Danbooru | |
| künstlername | Künstlername | Danbooru | |
| dated | Datum | Danbooru | |
| username | Benutzername | Danbooru | |
| web address | Website | Danbooru | |
| Anatomisches Label | |||
| bad hands | Schlechte Hände | Danbooru | |
| bad feet | Schlechte Füße | Danbooru | |
<Related Posts![]() Guide to Prompting with Illustrious ModelsComplicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt... ![]() Guide to AI Pose Prompting (NSFW)This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ... ![]() Can Chatgpt GPT-4o image generation do NSFW/nudity? GPT-4o massive nerf and other findingsGPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren... ![]() Automatic1111 Stable Diffusion WebUI for Hentai Generation (SD1.5 Tutorial)This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif... | |||