
By gerogero
Updated: February 7, 2026
Ce document fournit une introduction complète, exhaustive et à jour au modèle NoobAI-XL.
NoobAI-XL est un modèle de diffusion Text-to-Image développé par Laxhar Dream Lab et sponsorisé par Lanyun.
Le certificat du modèle est hérité de fair-ai-public-license-1.0-sd et comporte certaines restrictions (voir certificat du modèle NoobAI-XL). Le modèle est basé sur l'architecture du modèle SDXL. Son modèle de base est Illustrious-xl-early-release-v0. Il a été entraîné sur l'ensemble de données complet Danbooru et e621 (environ 13 millions d'images) pendant un grand nombre de cycles, avec une riche connaissance et une excellente performance.
NoobAI-XL possède une énorme quantité de connaissances, capable de restaurer les styles de dizaines de milliers de personnages et d'artistes 2D, de reconnaître un grand nombre de concepts spéciaux en 2D, et possède une riche connaissance furry.
NoobAI-XL propose à la fois des versions de prédiction de bruit (ou prédiction epsilon) et de prédiction V. En bref, la version de prédiction de bruit génère des images plus diverses et créatives, tandis que la version de prédiction V suit davantage les prompts et génère des images avec une gamme de couleurs plus large et un éclairage plus fort.
NoobAI-XL bénéficie d'un soutien communautaire d'écosystème de plus en plus riche, incluant divers LoRA, ControlNet, IP-Adapter, etc.
NoobAI-XL comprend une série de modèles, principalement de prédiction de bruit et de prédiction V, qui seront décrits en détail plus tard.
Avant de lire cette section, les lecteurs doivent déjà comprendre l'utilisation de base de tout type d'interface utilisateur d'image brute, comme WebUI, ComfyUI, forge ou reForge. Sinon, les lecteurs doivent apprendre à partir de ici ou sur Internet (comme Bilibili, etc.).
| Site | Lien |
| CivitAI | Cliquez ici |
| LiblibAI | Cliquez ici |
| Huggingface | Cliquez ici |
Si vous ne savez pas quel modèle télécharger, vous pouvez naviguer ici.
Les modèles NoobAI-XL sont divisés en deux catégories : modèles de prédiction de bruit (prédiction epsilon, ou abrégé en eps-pred) et modèles de prédiction V (prédiction v, ou abrégé en v-pred). Les modèles contenant les mots "eps", "epsilon-pred" ou "eps-pred" dans leurs noms sont des modèles de prédiction de bruit, qui ne diffèrent pas beaucoup des autres modèles. Si vous les utilisez, vous pouvez sauter cette section directement. Les modèles contenant les mots "v" ou "v-pred" dans leurs noms sont des modèles de prédiction V, qui diffèrent de la plupart des modèles conventionnels. Veuillez lire attentivement le guide d'installation dans cette section ! Le principe du modèle de prédiction V peut être trouvé dans cet article.
La prédiction V est une technique d'entraînement de modèle relativement rare. Les modèles entraînés en utilisant cette technique sont appelés modèles de prédiction V. Comparés à la prédiction de bruit, les modèles de prédiction V sont connus pour leur obéissance plus élevée aux indices, une gamme de couleurs plus complète et une lumière et une ombre plus fortes, représentées par NovelAI Diffusion V3 et COSXL. En raison de son apparition tardive et du nombre réduit de modèles de ce type, certains projets graphiques et interfaces utilisateur grand public ne le prennent pas en charge directement. Par conséquent, si vous prévoyez d'utiliser des modèles de prédiction V, vous aurez besoin de quelques opérations supplémentaires. Cette section introduira son utilisation spécifique. Si vous rencontrez des difficultés lors de l'utilisation, vous pouvez également contacter directement n'importe quel auteur de modèle pour obtenir de l'aide.
Forge et reForge sont deux interfaces utilisateur de génération d'images AI développées par lllyasviel et Panchovix respectivement, toutes deux étant des versions étendues de WebUI. Leur branche principale prend en charge le modèle de prédiction V, et le mode d'opération est presque le même que WebUI, donc ils sont recommandés. Si vous avez installé l'un d'eux, il vous suffit d'exécuter git pull pour mettre à jour dans son répertoire d'installation et de le redémarrer ; si vous ne l'avez pas installé, vous pouvez vous référer au tutoriel en ligne pour l'installation et l'utilisation.
ComfyUI est une interface utilisateur de génération d'images développée par comfyanonymous, permettant aux utilisateurs de manipuler librement les nœuds, nommée pour sa flexibilité et son professionnalisme. L'utilisation du modèle de prédiction V nécessite seulement d'ajouter des nœuds supplémentaires.
WebUI est un projet stable-diffusion-webui développé par AUTOMATIC1111. Actuellement, la branche principale de WebUI, qui est la branche principale, ne prend pas en charge le modèle de prédiction V et doit passer à dev. Veuillez noter que cette méthode est instable et peut avoir des bogues. Une utilisation inappropriée peut même causer des dommages irréversibles à WebUI. Par conséquent, veuillez sauvegarder votre WebUI à l'avance. La méthode spécifique est la suivante :
git checkout dev et appuyez sur Entrée.Diffusers est une bibliothèque dédiée aux modèles de diffusion Python. Cette utilisation nécessite que les utilisateurs aient une certaine base en code, et est recommandée pour les développeurs et les chercheurs. Exemple de code :
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL n'a pas d'exigences strictes pour les mots de prompt, et les actions recommandées dans cet article sont la cerise sur le gâteau.
NoobAI-XL recommande aux utilisateurs d'utiliser des tags comme prompt pour ajouter le contenu désiré. Chaque tag est un mot ou une phrase en anglais séparés par une virgule anglaise « , », et les tags directement issus de Danbooru et e621 ont des effets plus forts. Pour une amélioration supplémentaire, voir la spécification des prompts plus tard.
Nous suggérons d'ajouter toujours le tag esthétique « very awa » et le tag de qualité « masterpiece » à votre prompt.
NoobAI-XL prend en charge la génération de personnages et de styles d'artistes de haute fidélité, tous déclenchés par des tags, que nous appelons « mots déclencheurs ». Parmi eux, les mots déclencheurs pour les personnages sont leurs noms de personnages ; les mots déclencheurs pour les styles d'artistes sont les noms des artistes. Le tableau complet des mots déclencheurs peut être téléchargé depuis noob-wiki. Des explications détaillées sur les mots déclencheurs peuvent être trouvées ci-dessous.
Semblable à NovelAI, NoobAI-XL prend en charge des tags spéciaux tels que la qualité, l'esthétique, l'année de création, la période de création et la note de sécurité à des fins auxiliaires. Les lecteurs intéressés peuvent voir l'introduction détaillée dans le texte suivant.
Le tableau suivant recommande trois paramètres de génération : sampler, étapes d'échantillonnage et CFG Scale. En gras est fortement recommandé ; en gras rouge est une exigence stricte. L'utilisation de valeurs de paramètres autres que celles-ci apportera des effets inattendus.
| Numéro de version | Toutes les versions de prédiction de bruit | Version de prédiction V 1.0 | Version de prédiction V 0.9r | Version de prédiction V 0.75s | Version de prédiction V 0.65s | Version de prédiction V 0.6 | Version de prédiction V 0.5 | Version bêta de prédiction V |
| Paramètres recommandés | Sampler : Euler A CFG : 5 ~ 7 Étapes d'échantillonnage : 28 ~ 35 | Sampler : Euler CFG : 3.5 ~ 5.5 Étapes d'échantillonnage : 32 ~ 40 Sampler : Euler A CFG : 3 ~ 5 Étapes d'échantillonnage : 28 ~ 40 | Sampler : Euler CFG : 3.5 ~ 5.5 Étapes d'échantillonnage : 32 ~ 40 Sampler : Euler A CFG : 3 ~ 5 Étapes d'échantillonnage : 28 ~ 40 | Sampler : Euler A CFG : 3 ~ 5 Étapes d'échantillonnage : 28 ~ 40 | Sampler : Euler A ou Euler CFG : 3.5 ~ 5.5 Étapes d'échantillonnage : 32 ~ 40 Sampler : Euler A CFG : 5 ~ 7 Étapes d'échantillonnage : 28 ~ 40 | Sampler : Euler CFG : 3.5 ~ 5.5 Étapes d'échantillonnage : 28 ~ 35 | Sampler : Euler CFG : 3.5 ~ 5.5 Étapes d'échantillonnage : 28 ~ 40 | Sampler : Euler A CFG : 5 ~ 7 Étapes d'échantillonnage : 28 ~ 35 |
Pour le modèle de prédiction V, les paramètres suivants sont recommandés pour (i) optimiser la couleur, l'éclairage et les détails ; (ii) éliminer les effets de saturation excessive et de surexposition ; et (iii) améliorer la compréhension sémantique.
La résolution (largeur x hauteur) de l'image générée est un paramètre important. En général, pour des raisons architecturales, tous les modèles SDXL, y compris NoobAI-XL, doivent utiliser une résolution spécifique pour obtenir le meilleur effet. Aucun pixel de plus ou de moins n'est autorisé, sinon la qualité de l'image générée sera affaiblie. La résolution recommandée de NoobAI-XL est indiquée dans le tableau ci-dessous :
| Résolution (L x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| Proportion | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
Vous pouvez également utiliser une résolution de plus grande surface, bien que cela ne soit pas stable. (Selon la recherche SD3, lorsque la surface générée devient un $$$$multiple de l'original, l'incertitude du modèle deviendra un multiple de l'original $$k^$$.) Nous recommandons que la surface de l'image générée ne dépasse pas 1,5 fois l'original. Par exemple, 1024×1536.
Si vous êtes intéressé par le modèle et souhaitez en savoir plus, cette section fournit un guide détaillé sur l'utilisation du modèle.
NoobAI-XL comprend plusieurs versions différentes du modèle de base pour une série. Le tableau suivant résume les caractéristiques de chaque version.
| Numéro de version | Type de prédiction | Lien de téléchargement | Itération depuis | Caractéristiques de la version |
| Early-Access | Prédiction de bruit | CivitAIHuggingface | Illustrious-xl-early-release-v0 | La première version, mais déjà suffisamment entraînée. |
| Epsilon-pred 0.5 | Prédiction de bruit | CivitAIHuggingface | Early-Access | (Recommandé) La version la plus stable, le seul inconvénient est le manque de connaissances sur des concepts obscurs. |
| Epsilon-pred 0.6 | Prédiction de bruit | Huggingface | Early-Access 0.5 | (Recommandé) La dernière version d'entraînement uniquement UNet a un excellent effet de convergence. L'équipe de test est appelée « 178000 », qui est appréciée par beaucoup. |
| Epsilon-pred 0.75 | Prédiction de bruit | CivitAIHuggingface | Epsilon-pred 0.6 | Le codeur de texte (TTE) a été entraîné pour apprendre des connaissances plus obscures, mais la performance de qualité s'est détériorée. |
| Epsilon-pred 0.77 | Prédiction de bruit | Huggingface | Epsilon-pred 0.75 | Entraîné pendant deux époques supplémentaires sur la base d'Epsilon-pred 0.75, améliorant la dégradation de performance. |
| Epsilon-pred 1.0 | Prédiction de bruit | CivitAIHuggingface | Epsilon-pred 0.77 | (Recommandé) Dix tours d'entraînement supplémentaires pour consolider les nouvelles connaissances de tte, équilibre de performance. |
| Pre-test | Prédiction V | CivitAIHuggingface | Epsilon-pred 0.5 | (Non recommandé) Version expérimentale initiale de la prédiction V. |
| V-pred 0.5 | Prédiction V | CivitAIHuggingface | Epsilon-pred 1.0 | (Non recommandé) Il y a un problème de saturation élevée. |
| V-pred 0.6 | Prédiction V | CivitAIHuggingface | V-pred 0.5 | (Non recommandé) Basé sur les résultats d'évaluation préliminaires, V-pred 0.6 se comporte bien dans la couverture des connaissances rares, atteignant le niveau le plus élevé parmi les modèles actuellement publiés. En même temps, le modèle améliore considérablement le problème de dégradation de qualité. |
| V-pred 0.65 | Prédiction V | Huggingface | V-pred 0.6 | (Non recommandé) Il y a un problème de saturation. |
| V-pred 0.65s | Prédiction V | CivitAIHuggingface | V-pred 0.6 | Le problème de saturation est presque résolu ! Mais il y a un problème d'artefacts, qui sera résolu dans la prochaine version. |
| Epsilon-pred 1.1 | Prédiction de bruit | CivitAIHuggingface | Epsilon-pred 1.0 | (Recommandé) Le problème de luminosité moyenne a été résolu, et tous les aspects se sont améliorés. |
| V-pred 0.75 | Prédiction V | Huggingface | V-pred 0.65 | (Non recommandé) Il y a un problème de saturation. |
| V-pred 0.75s | Prédiction V | CivitAIHuggingface | V-pred 0.65 | (Recommandé) Résoudre la saturation dans des situations extrêmes, les problèmes de bruit résiduel et d'artefacts. |
| V-pred 0.9r | Prédiction V | CivitAI | V-pred 0.75 | Entraîné avec ~10% de données de réalisme. A une dégradation. |
| V-pred 1.0 | Prédiction V | CivitAI | V-pred 0.75 | (Recommandé) Meilleur équilibre qualité/performance/couleur. |
| Type de prédiction | Type de ControlNet | Lien | Type de préprocesseur | Remarques |
| Prédiction de bruit | Bord doux HED | CivitAIHuggingface | softedge_hed | |
| Prédiction de bruit | Anime lineart | CivitAIHuggingface | lineart_anime | |
| Prédiction de bruit | Carte normale Midas | CivitAIHuggingface | normal_midas | |
| Prédiction de bruit | Carte de profondeur Midas | CivitAIHuggingface | depth_midas | |
| Prédiction de bruit | Contour Canny | CivitAIHuggingface | canny | |
| Prédiction de bruit | Squelette humain Openpose | CivitAIHuggingface | openpose | |
| Prédiction de bruit | Ligne de manga | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| Prédiction de bruit | Ligne réaliste | CivitAIHuggingface | lineart_realistic | |
| Prédiction de bruit | Carte de profondeur Midas | CivitAIHuggingface | depth_midas | Nouvelle version |
| Prédiction de bruit | Dessin HED | CivitAIHuggingface | scribble_hed | |
| Prédiction de bruit | Dessin Pidinet | CivitAIHuggingface | scribble_pidinet | |
| Prédiction de bruit | Carrelage | CivitAIHuggingface | tile |
Notez que lors de l'utilisation de ControlNet, vous DEVEZ faire correspondre le type de préprocesseur que vous utilisez avec le type de préprocesseur requis par ControlNet. De plus, vous N'AVEZ PEUT-ÊTRE PAS BESOIN de faire correspondre le type de prédiction du modèle de base avec le type de prédiction de ControlNet.
À venir.
La plupart des LoRAs peuvent être utilisées à la fois pour les versions de prédiction de bruit et de prédiction V, et vice versa.
Tout d'abord, nous devons clarifier que le rôle des prompts est de guider. De bons prompts peuvent libérer le potentiel du modèle, mais de mauvais ou même incorrects prompts peuvent ne pas nécessairement rendre les résultats pires. Différents modèles ont des utilisations optimales de prompts différentes, et l'effet d'une mauvaise utilisation n'est souvent pas évident, et dans certains cas, cela peut même améliorer. Ce guide de prompt enregistre le meilleur ingénierie de prompt théorique du modèle, et les lecteurs capables peuvent également l'utiliser librement.
Cette section fournira un guide détaillé sur l'écriture de prompts, y compris les normes d'écriture de prompts, l'utilisation spécifique des mots déclencheurs de rôle et de style, l'utilisation de tags spéciaux, etc. Les lecteurs intéressés par l'ingénierie des prompts peuvent choisir de lire de manière sélective.
NoobAI-XL a la même spécification de prompt que d'autres modèles de base de type anime. Cette section introduira systématiquement les spécifications d'écriture de base des prompts et aidera les lecteurs à éliminer les idées fausses courantes dans la communauté.
Selon les différents formats, les prompts peuvent être grossièrement divisés en deux catégories : tags et langage naturel. Les premiers sont principalement utilisés pour les modèles anime, et les derniers sont principalement utilisés pour les modèles de la vie réelle. Quel que soit le prompt, à moins que le modèle ne spécifie le contraire, il ne doit contenir que des lettres, des chiffres et des symboles anglais.
Les tags sont composés de mots ou de phrases en anglais en minuscules séparés par des virgules anglaises « , », par exemple, « 1girl, solo, blue hair » contient trois tags, « 1girl », « solo » et « blue hair ».
Les espaces supplémentaires et les caractères de nouvelle ligne dans le prompt n'affecteront pas l'effet de génération réel. En d'autres termes, « 1girl, solo, blue hair » et « 1girl, solo, blue hair » ont exactement le même effet.
Les prompts ne doivent pas contenir de tirets bas « _ ». Influencés par des sites tels que Danbooru, l'utilisation de tirets bas « _ » au lieu d'espaces entre les mots en tant que tags a été diffusée, ce qui est en réalité un abus et entraînera des résultats générés différents de ceux utilisant des espaces. La plupart des modèles, y compris NoobAI-XL, ne recommandent pas d'inclure des tirets bas dans les prompts. Cet abus peut affecter la qualité de la génération au mieux, et même rendre les mots déclencheurs complètement invalides au pire.
Échapper aux parenthèses si nécessaire. Les parenthèses, y compris les crochets ronds (), les crochets carrés [] et les accolades {}, sont des symboles très spéciaux dans les prompts. Contrairement aux symboles généraux, dans la plupart des interfaces utilisateur de génération d'images, les parenthèses sont interprétées comme un poids spécifique de contenu, et les parenthèses participant à la pondération ne joueront pas leur signification originale. Cependant, que faire si le prompt original doit inclure des parenthèses, comme certains mots déclencheurs ? La réponse est que la fonction de pondération des parenthèses peut être éliminée en ajoutant un antislash « \ » avant les parenthèses. Cette opération de changement de signification originale d'un caractère est appelée échapper, et les antislashs sont également appelés caractères d'échappement. Par exemple, si vous n'utilisez pas d'antislash pour échapper, le prompt « 1girl, ganyu (genshin impact) » sera mal interprété comme « 1girl, ganyu genshin impact », où « genshin impact » est pondéré et les parenthèses disparaissent. En ajoutant un caractère d'échappement, le prompt devient « 1girl, ganyu \(genshin impact\) », comme prévu.
En résumé, la normalisation des tags se divise en deux étapes : (i) remplacer les tirets bas par des espaces dans chaque tag, et (ii) ajouter un antislash « \ » avant les parenthèses.
Les tags directement issus de Danbooru et e621 ont un effet expressif plus fort. Par conséquent, au lieu de créer vos propres tags, nous recommandons aux lecteurs de rechercher des tags directement sur ces deux sites. Il convient de noter que les tags obtenus directement de cette manière sont séparés par un tiret bas « _ » et que les parenthèses ne sont pas échappées. Par conséquent, avant d'ajouter des indices aux tags provenant d'eux, vous devez supprimer les espaces dans les tags et échapper les parenthèses. Par exemple, traitez les tags de Danbooru « ganyu_ (genshin_impact) » comme « ganyu\ (genshin impact\) » avant utilisation.
Ne pas utiliser de méta-tags invalides. Les méta-tags (méta-tags) sont un type spécial de tag sur Danbooru utilisé pour indiquer les caractéristiques des fichiers d'image ou des œuvres elles-mêmes. Par exemple, « highres » indique que l'image a une haute résolution, « oil_painting_ (medium) » indique que l'image est dans le style de la peinture à l'huile. Cependant, tous les méta-tags ne sont pas liés au contenu ou à la forme de l'image. Par exemple, « commentary_request » indique que le post de Danbooru a une demande de traduction pour l'œuvre, ce qui n'a pas de lien direct avec l'œuvre elle-même et n'a donc aucun effet.
Les mots d'indice séquentiels sont meilleurs. NoobAI-XL recommande d'écrire des prompts dans un ordre logique, du primaire au secondaire. Un ordre d'écriture possible est le suivant, à titre de référence uniquement :
< 1girl/1boy/1other/female/male/... >, < personnage >, < série >, < artiste(s) >, < tags généraux >, < autres tags >, < tags de qualité & d'esthétique >
Parmi eux, les < tags de qualité & d'esthétique > peuvent être préfixés.
Les prompts en langage naturel sont composés de phrases, chacune commençant par une majuscule et se terminant par un point « . ». La plupart des modèles anime, y compris NoobAI-XL, ont une meilleure compréhension des tags, donc le langage naturel est souvent utilisé comme auxiliaire plutôt que comme composant principal dans les prompts.
NoobAI-XL prend en charge la génération directe d'un grand nombre de personnages et de styles d'artistes créés par des fans. Les personnages et les styles sont déclenchés par des noms, qui sont également des tags appelés mots déclencheurs. Vous pouvez rechercher directement sur Danbooru ou e621, et normaliser les tags résultants en tant que prompts.
Il existe certaines différences dans la façon dont les personnages et les artistes sont déclenchés.
Le tableau suivant montre quelques cas corrects et incorrects de déclenchement de personnages et de styles :
| Type | Mot de prompt | Droit ou faux | Raison |
| Rôle | Rei Ayanami | Faux | Le nom du personnage devrait être « ayanami rei ». Pas de tag de série « neon genesis evangelion » ajouté. |
| Rôle | character:ganyu \(genshin impact\), genshin impact | Faux | Ajouté le préfixe « character: » de manière superficielle. |
| Rôle | ganyu_\(genshin impact\) | Faux | Aucun tag entièrement normalisé : ne devrait pas contenir de tirets bas. Aucun tag de série n'a été ajouté. |
| Rôle | ganyu (genshin impact), genshin impact | Faux | Aucun tag entièrement normalisé : les parenthèses ne sont pas échappées. |
| Rôle | ganyu (genshin impact\), genshin impact | Faux | Aucun tag entièrement normalisé : la parenthèse gauche n'est pas échappée. |
| Rôle | ganyu \(genshin impact\),genshin impact | Faux | Deux tags séparés par une virgule chinoise. |
| Rôle | ganyu \(genshin impact\), genshin impact | Correct | |
| Style d'artiste | by wlop | Faux | Ajouté le préfixe « by » de manière superficielle. |
| Style d'artiste | artist:wlop | Faux | Ajouté le préfixe « artist: » de manière superficielle. |
| Style d'artiste | dino | Faux | Le nom de l'artiste est incorrect, le nom de l'artiste de aidxl/artiwaifu ne devrait pas être utilisé, mais devrait suivre Danbooru, donc c'est « dino\ (dinoartforame\) ». |
| Style d'artiste | wlop | Correct |
Pour votre commodité, nous fournissons également un formulaire complet de mots déclencheurs dans le noob-wiki pour votre référence :
| Type de tableau | Lien de téléchargement |
| Personnage Danbooru | Cliquez ici |
| Style d'artiste Danbooru | Cliquez ici |
| Personnage E621 | Cliquez ici |
| Style d'artiste E621 | Cliquez ici |
Chacun de ces formulaires contient un tableau de mots déclencheurs provenant de l'une des bases de données Danbooru et e621. Chaque ligne du tableau représente un personnage ou un style d'artiste. Vous devez simplement trouver la ligne correspondant au personnage ou au style d'artiste souhaité, copier la section « trigger » et la coller dans le mot de prompt tel quel. Si vous n'êtes pas sûr d'un personnage ou d'un style d'artiste, vous pouvez également cliquer sur le lien dans la colonne « url » pour voir le diagramme d'exemple sur le site. Le tableau suivant explique la signification de chaque colonne. Tous les tableaux ne contiennent pas toutes les colonnes.
| Répertorié | Signification | Remarques |
| personnage | Le nom du tag du rôle sur le site correspondant. | |
| artiste | Style d'artiste dans le nom du tag du site correspondant. | |
| trigger | Mots déclencheurs après normalisation. | Copiez et collez-le dans le mot de prompt tel quel et utilisez-le. |
| count | Nombre d'images avec ce tag. | Comme une attente du degré de restauration de ce concept. Pour les personnages, un count supérieur à 200 peut être mieux restauré. Pour le style, un count supérieur à 100 peut être mieux restauré. |
| url | Page de tag sur le site original. | |
| solo_count | Le nombre d'images dans l'ensemble de données avec ce tag et un seul personnage dans l'image. | Tableau de rôles uniquement. Pour les rôles, un solo_count supérieur à 50 peut être mieux restauré. Lorsque le degré de réduction est jugé par count, la déviation de la colonne count est grande et la précision est faible, tandis que solo_count est un indicateur plus précis. |
| core_tags | Les tags caractéristiques principaux du personnage incluent l'apparence, le sexe et les vêtements. Séparés par des virgules anglaises, chaque tag a été normalisé. | Liste de personnages Danbooru uniquement. Lorsque des personnages peu populaires sont déclenchés et que leur degré de restauration est insuffisant, plusieurs tags de caractéristiques principales peuvent être ajoutés pour améliorer le degré de restauration. |
Les étiquettes spéciales sont un type d'étiquette avec des significations et des effets spéciaux qui servent de fonction auxiliaire.
Les tags de qualité sont en réalité des tags de popularité obtenus à partir de données statistiques basées sur les préférences des utilisateurs de Danbooru et e621. Par ordre de qualité, de la plus haute à la plus basse :
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
Les tags esthétiques sont notés selon le modèle de notation esthétique. Il n'y en a jusqu'à présent que deux, « very awa » et « worst aesthetic ». Le premier est les données avec des scores pondérés par waifu-scorer-v3 et waifu-scorer-v4-beta dans le top 5%, et le dernier est les données dans le bas 5%. Il est nommé very awa car ses normes esthétiques sont similaires au modèle Arti Waifu Diffusion. De plus, un tag esthétique qui est encore en formation et n'a pas d'effet évident est « very as2 », qui est les données avec des scores de « aesthetic-shadow-v2-5 » dans le top 5%.
Comparaison des effets des étiquettes esthétiques
Il existe quatre tags de sécurité/évaluation : général, sensitif, nsfw et explicite.
Nous espérons que les utilisateurs ajouteront consciemment « nsfw » dans les prompts négatifs pour filtrer le contenu inapproprié. 😀
Le tag d'année est utilisé pour indiquer l'année de création de l'œuvre, affectant indirectement la qualité, le style, le degré de restauration des personnages, etc. Son format est « année xxxx », où « xxxx » est une année spécifique, comme « année 2024 ».
Les tags de période sont des tags d'année qui ont également un impact significatif sur la qualité de l'image. La correspondance entre les tags et les années est indiquée dans le tableau ci-dessous.
| Plage d'années | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| Étiquette de période | nouveau | récent | milieu | précoce | ancien |
Cette section fournit des exemples d'utilisation recommandés de prompts à titre de référence uniquement.
Le point de départ recommandé suivant utilise des tags spéciaux, qui sont ceux ayant la plus forte corrélation avec la qualité de l'image.
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
Le tableau suivant présente des tags négatifs courants et leurs sources. Tous les tags négatifs ne sont pas nécessairement mauvais, et les utiliser correctement peut avoir des effets inattendus.
| Tag | Traduction | Remarques | Source |
| Étiquette de qualité | |||
| worst aesthetic | La pire esthétique | Contient des concepts esthétiques faibles tels que basse qualité, filigranes, bandes dessinées, multi-vues et croquis inachevés | Esthétique |
| worst quality | Pire qualité | Qualité | |
| low quality | Basse qualité | La basse qualité de Danbooru | Qualité |
| bad quality | Basse qualité | Basse qualité de e621 | Qualité |
| lowres | Basse résolution | Danbooru | |
| scan artifacts | Artefact de numérisation | Danbooru | |
| jpeg artifacts | Artefact de compression d'image JPEG | Danbooru | |
| lossy-lossless | – | Les images qui ont été converties d'un format d'image avec perte à un format d'image sans perte sont généralement pleines d'artefacts. | Danbooru |
| Étiquettes de composition et de forme artistique | |||
| ai-generated | Généré par AI | Généré par AI, cela a souvent une sensation grasse générée par AI. | Danbooru |
| abstract | Abstrait | Éliminer les lignes encombrées | Danbooru |
| official art | Art officiel | Illustrations réalisées par la société/artiste officiel de la série ou du personnage. Le copyright, société ou nom de l'artiste, et avis de copyright peuvent être imprimés quelque part sur l'image. | Danbooru |
| old | Images anciennes | Période | |
| 4koma | BD en quatre cases | Danbooru | |
| multiple views | Multi-vue | Danbooru | |
| reference sheet | Conception de personnalité | Danbooru | |
| dakimakura \(medium\) | Diagramme de coussin | Danbooru | |
| turnaround | Vue complète en trois dimensions | Danbooru | |
| comic | BD | Danbooru | |
| greyscale | Carte de sortie en noir et blanc | Image en noir et blanc | Danbooru |
| monochrome | Monochrome | Image en noir et blanc | Danbooru |
| sketch | Ébauche | Danbooru | |
| unfinished | Travail inachevé | Danbooru | |
| Étiquette E621 | |||
| furry | Furry | e621 | |
| anthro | Furry personnifié | e621 | |
| feral | Furry | e621 | |
| semi-anthro | Furry semi-anthropomorphe | e621 | |
| mammal | Mammifères (Furry) | e621 | |
| Étiquette de filigrane | |||
| watermark | Filigrane | Danbooru | |
| logo | LOGO | Danbooru | |
| signature | Signature de l'artiste | Danbooru | |
| text | Texte | Danbooru | |
| artist name | Nom de l'artiste | Danbooru | |
| dated | Date | Danbooru | |
| username | Nom d'utilisateur | Related Posts![]() Guide to Prompting with Illustrious ModelsComplicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt... ![]() Guide to AI Pose Prompting (NSFW)This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ... ![]() Can Chatgpt GPT-4o image generation do NSFW/nudity? GPT-4o massive nerf and other findingsGPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren... ![]() Automatic1111 Stable Diffusion WebUI for Hentai Generation (SD1.5 Tutorial)This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif... | |