
By gerogero
Updated: February 7, 2026
Este documento proporciona una introducción completa, exhaustiva y actualizada al modelo NoobAI-XL .
NoobAI-XL es un modelo de difusión de Texto a Imagen desarrollado por Laxhar Dream Lab y patrocinado por Lanyun.
El certificado del modelo se hereda de fair-ai-public-license-1.0-sd y tiene algunas restricciones (ver certificado del modelo NoobAI-XL). El modelo se basa en la arquitectura del modelo SDXL. Su modelo base es Illustrious-xl-early-release-v0 . Se entrenó en el conjunto de datos completo de Danbooru y e621 (alrededor de 13 millones de imágenes) durante un gran número de rondas, con un rico conocimiento y un excelente rendimiento.
NoobAI-XL tiene una enorme cantidad de conocimiento, que puede restaurar los estilos de decenas de miles de personajes y artistas en 2D, reconocer una gran cantidad de conceptos especiales en 2D, y tiene un rico conocimiento sobre furry.
NoobAI-XL proporciona versiones de predicción de ruido (o predicción de epsilon) y predicción V. En resumen, la versión de predicción de ruido genera imágenes más diversas y creativas, mientras que la versión de predicción V sigue más los prompts y genera imágenes con una gama de colores más amplia y una iluminación más fuerte.
NoobAI-XL cuenta con un ecosistema de soporte comunitario cada vez más rico, incluyendo varios LoRA, ControlNet , IP-Adapter y más.
NoobAI-XL incluye una serie de modelos, principalmente de predicción de ruido y predicción V, que se describirán en detalle más adelante .
Antes de leer esta sección, los lectores deben entender ya el uso básico de cualquier tipo de interfaz de usuario de imagen en bruto, como WebUI , ComfyUI , forge o reForge . De lo contrario, los lectores deben aprender desde aquí o de Internet (como Bilibili, etc.).
| Sitio | Enlace |
| CivitAI | Haz clic aquí |
| LiblibAI | Haz clic aquí |
| Huggingface | Haz clic aquí |
Si no sabes qué modelo descargar, puedes navegar aquí .
Los modelos de NoobAI-XL se dividen en dos categorías: modelos de predicción de ruido (predicción de epsilon, o abreviado como eps-pred) y modelos de predicción V (v-prediction, o abreviado como v-pred). Los modelos con las palabras “eps”, “epsilon-pred” o “eps-pred” en sus nombres son modelos de predicción de ruido, que no son muy diferentes de otros modelos. Si los usas, puedes omitir esta sección directamente. Los modelos con las palabras “v” o “v-pred” en sus nombres son modelos de predicción V, que son diferentes de la mayoría de los modelos convencionales. ¡Por favor, lee cuidadosamente la guía de instalación en esta sección! El principio del modelo de predicción V se puede encontrar en este artículo .
La predicción V es una técnica de entrenamiento de modelo relativamente rara. Los modelos entrenados utilizando esta técnica se llaman modelos de predicción V. En comparación con la predicción de ruido, los modelos de predicción V son conocidos por su mayor obediencia a las indicaciones, una gama de colores más completa y una luz y sombra más fuertes, representados por NovelAI Diffusion V3 y COSXL . Debido a su aparición tardía y a la menor cantidad de modelos de este tipo, algunos proyectos gráficos y UIs principales no lo soportan directamente. Por lo tanto, si planeas usar modelos de predicción V, necesitas realizar algunas operaciones adicionales. Esta sección presentará su uso específico. Si encuentras alguna dificultad durante el uso, también puedes contactar directamente a cualquier autor del modelo para obtener ayuda.
Forge y reForge son dos UIs de generación de imágenes AI desarrolladas por lllyasviel y Panchovix respectivamente, ambas son versiones extendidas de WebUI. Su rama principal soporta el modelo de predicción V, y el modo de operación es casi el mismo que WebUI, por lo que se recomiendan. Si has instalado uno de ellos, solo necesitas ejecutar git pull para actualizar en su directorio de instalación y reiniciarlo; si no lo has instalado, puedes consultar el tutorial en línea para la instalación y uso.
ComfyUI es una interfaz de generación de imágenes desarrollada por comfyanonymous , que permite a los usuarios manipular libremente los nodos, nombrada por su flexibilidad y profesionalismo. Usar el modelo de predicción V solo requiere agregar nodos adicionales.
WebUI es un proyecto stable-diffusion-webui desarrollado por AUTOMATIC1111 . Actualmente, la rama principal de WebUI, que es la rama principal, no soporta el modelo de predicción V y necesita cambiar a dev. Por favor, ten en cuenta que este método es inestable y puede tener errores. Un uso inadecuado puede incluso causar daños irreversibles a WebUI. Por lo tanto, por favor, haz una copia de seguridad de tu WebUI con anticipación. El método específico es el siguiente:
git checkout dev y presiona Enter.Diffusers es una biblioteca dedicada a modelos de difusión en Python. Este uso requiere que los usuarios tengan una cierta base de código, y se recomienda para que lo utilicen desarrolladores e investigadores. Ejemplo de código:
import torch
from diffusers import StableDiffusionXLPipeline, EulerDiscreteScheduler
ckpt_path = "/path/to/model.safetensors"
pipe = StableDiffusionXLPipeline.from_single_file(
ckpt_path,
use_safetensors=True,
torch_dtype=torch.float16,
)
scheduler_args = {"prediction_type": "v_prediction", "rescale_betas_zero_snr": True}
pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, **scheduler_args)
pipe.enable_xformers_memory_efficient_attention()
pipe = pipe.to("cuda")
prompt = """masterpiece, best quality, john_kafka, nixeu, quasarcake, chromatic aberration, film grain, horror \(theme\), limited palette, x-shaped pupils, high contrast, color contrast, cold colors, arlecchino \(genshin impact\), black theme, gritty, graphite \(medium\)"""
negative_prompt = "nsfw, worst quality, old, early, low quality, lowres, signature, username, logo, bad hands, mutated hands, mammal, anthro, furry, ambiguous form, feral, semi-anthro"
image = pipe(
prompt=prompt,
negative_prompt=negative_prompt,
width=832,
height=1216,
num_inference_steps=28,
guidance_scale=5,
generator=torch.Generator().manual_seed(42),
).images[0]
image.save("output.png")
NoobAI-XL no tiene requisitos estrictos para las palabras del prompt, y las acciones recomendadas en este artículo son la guinda del pastel.
NoobAI-XL recomienda que los usuarios usen etiquetas como prompt para agregar el contenido deseado. Cada etiqueta es una palabra o frase en inglés separada por una coma en inglés “,”, y las etiquetas directamente de Danbooru y e621 tienen efectos más fuertes. Para una mejora adicional, consulta la especificación del prompt más adelante.
Sugerimos agregar siempre la etiqueta estética “very awa” y la etiqueta de calidad “masterpiece” a tu prompt.
NoobAI-XL soporta la generación de personajes y estilos de artistas de alta fidelidad, ambos activados por etiquetas, que llamamos “palabras clave”. Entre ellas, las palabras clave para personajes son sus nombres; las palabras clave para estilos de artistas son los nombres de los artistas. La tabla completa de palabras clave se puede descargar de noob-wiki . Explicaciones detalladas de las palabras clave se pueden encontrar más abajo .
Similar a NovelAI, NoobAI-XL soporta etiquetas especiales como calidad, estética, año de creación, periodo de creación y calificación de seguridad para propósitos auxiliares. Los lectores interesados pueden ver la introducción detallada en el texto siguiente .
La siguiente tabla recomienda tres parámetros de generación: muestreador , pasos de muestreo y CFG Scale . En negrita es muy recomendable; en negrita roja es un requisito estricto. Usar valores de parámetros diferentes a estos traerá efectos inesperados.
| Número de versión | Todas las versiones de predicción de ruido | Versión de Predicción V 1.0 | Versión de Predicción V 0.9r | Versión de Predicción V 0.75s | Versión de Predicción V 0.65s | Versión de Predicción V 0.6 | Versión de Predicción V 0.5 | Versión Beta de Predicción V |
| Parámetros recomendados | Muestreador: Euler A CFG: 5~ 7 Pasos de muestreo: 28~ 35 | Muestreador: Euler CFG: 3.5 ~ 5.5 Pasos de muestreo: 32~ 40Muestreador: Euler A CFG: 3 ~ 5 Pasos de muestreo: 28~ 40 | Muestreador: Euler CFG: 3.5 ~ 5.5 Pasos de muestreo: 32~ 40Muestreador: Euler A CFG: 3 ~ 5 Pasos de muestreo: 28~ 40 | Muestreador: Euler A CFG: 3 ~ 5 Pasos de muestreo: 28~ 40 | Muestreador: Euler A o Euler CFG: 3.5 ~ 5.5 Pasos de muestreo: 32~ 40Muestreador: Euler A CFG: 5 ~ 7 Pasos de muestreo: 28~ 40 | Muestreador: Euler CFG: 3.5~ 5.5 Pasos de muestreo: 28~ 35 | Muestreador: Euler CFG: 3.5~ 5.5 Pasos de muestreo: 28~ 40 | Muestreador: Euler A CFG: 5~ 7 Pasos de muestreo: 28~ 35 |
Para el modelo de predicción V, se recomiendan los siguientes parámetros para (i) optimizar color, iluminación y detalle; (ii) eliminar los efectos de sobre saturación y sobreexposición; y (iii) mejorar la comprensión semántica.
La resolución (ancho x alto) de la imagen generada es un parámetro importante. En términos generales, por razones arquitectónicas, todos los modelos SDXL, incluido NoobAI-XL, necesitan usar una resolución específica para lograr el mejor efecto. No se permiten más ni menos píxeles, de lo contrario, la calidad de la imagen generada se debilitará. La resolución recomendada de NoobAI-XL se muestra en la tabla a continuación:
| Resolución (W x H) | 768×1344 | 832×1216 | 896×1152 | 1024×1024 | 1152×896 | 1216×832 | 1344×768 |
| Proporción | 9:16 | 2:3 | 3:4 | 1:1 | 4:3 | 3:2 | 16:9 |
También puedes usar una resolución de área más grande, aunque esto no es estable. (Según la investigación de SD3, cuando el área generada se convierte en un $$$$múltiplo del original, la incertidumbre del modelo se convertirá en un múltiplo del original $$k^$$.) Recomendamos que el área de la imagen generada no exceda 1.5 veces la original. Por ejemplo, 1024×1536.
Si estás interesado en el modelo y te gustaría aprender más sobre él, esta sección proporciona una guía detallada para usar el modelo.
NoobAI-XL incluye múltiples versiones diferentes del modelo base para una serie. La siguiente tabla resume las características de cada versión.
| Número de versión | Tipo de predicción | Enlace de descarga | Iteración desde | Características de la versión |
| Acceso anticipado | Predicción de ruido | CivitAIHuggingface | Illustrious-xl-early-release-v0 | La versión más temprana, pero ya tiene suficiente entrenamiento. |
| Epsilon-pred 0.5 | Predicción de ruido | CivitAIHuggingface | Acceso anticipado | (Recomendado) La versión más estable, el único inconveniente es la falta de conocimiento de conceptos oscuros. |
| Epsilon-pred 0.6 | Predicción de ruido | Huggingface | Acceso anticipado 0.5 | (Recomendado) La última versión de entrenamiento solo de UNet tiene un excelente efecto de convergencia. El equipo de prueba se llama “178000”, que es apreciado por muchas personas. |
| Epsilon-pred 0.75 | Predicción de ruido | CivitAIHuggingface | Epsilon-pred 0.6 | El codificador de texto (TTE) fue entrenado para aprender más conocimiento oscuro, pero el rendimiento de calidad se deterioró. |
| Epsilon-pred 0.77 | Predicción de ruido | Huggingface | Epsilon-pred 0.75 | Entrenado durante dos épocas más sobre la base de Epsilon-pred 0.75, mejorando la degradación del rendimiento. |
| Epsilon-pred 1.0 | Predicción de ruido | CivitAIHuggingface | Epsilon-pred 0.77 | (Recomendado) 10 rondas adicionales de entrenamiento para consolidar el nuevo conocimiento de tte, equilibrio de rendimiento. |
| Pre-prueba | Predicción V | CivitAIHuggingface | Epsilon-pred 0.5 | (No recomendado) Versión experimental inicial de predicción V. |
| V-pred 0.5 | Predicción V | CivitAIHuggingface | Epsilon-pred 1.0 | (No recomendado) Hay un problema de alta saturación. |
| V-pred 0.6 | Predicción V | CivitAIHuggingface | V-pred 0.5 | (No recomendado) Basado en los resultados de evaluación preliminares, V-pred0.6 se desempeña bien en la cobertura de conocimiento raro, alcanzando el nivel más alto entre los modelos actualmente publicados. Al mismo tiempo, el modelo mejora significativamente el problema de degradación de calidad. |
| V-pred 0.65 | Predicción V | Huggingface | V-pred 0.6 | (No recomendado) Hay un problema de saturación. |
| V-pred 0.65s | Predicción V | CivitAIHuggingface | V-pred 0.6 | ¡El problema de saturación está casi resuelto! Pero tiene problemas de artefactos, que se resolverán en la próxima versión. |
| Epsilon-pred 1.1 | Predicción de ruido | CivitAIHuggingface | Epsilon-pred 1.0 | (Recomendado) Se ha resuelto el problema de brillo promedio, y todos los aspectos han mejorado. |
| V-pred 0.75 | Predicción V | Huggingface | V-pred 0.65 | (No recomendado) Hay un problema de saturación. |
| V-pred 0.75s | Predicción V | CivitAIHuggingface | V-pred 0.65 | (Recomendado) Resolver la saturación en situaciones extremas, ruido residual y problemas de artefactos. |
| V-pred 0.9r | Predicción V | CivitAI | V-pred 0.75 | Entrenado con ~10% de datos de realismo. Tiene degradación. |
| V-pred 1.0 | Predicción V | CivitAI | V-pred 0.75 | (Recomendado) Mejor equilibrio de calidad/rendimiento/color. |
| Tipo de predicción | Tipo de ControlNet | Enlace | Tipo de preprocesador | Observaciones |
| Predicción de ruido | Borde suave de HED | CivitAIHuggingface | softedge_hed | |
| Predicción de ruido | Anime lineart | CivitAIHuggingface | lineart_anime | |
| Predicción de ruido | Mapa normal de Midas | CivitAIHuggingface | normal_midas | |
| Predicción de ruido | Mapa de profundidad de Midas | CivitAIHuggingface | depth_midas | |
| Predicción de ruido | Contorno de Canny | CivitAIHuggingface | canny | |
| Predicción de ruido | Esqueleto humano de Openpose | CivitAIHuggingface | openpose | |
| Predicción de ruido | Línea de manga | CivitAIHuggingface | manga_line / lineart_anime / lineart_realistic | |
| Predicción de ruido | Lineart realista | CivitAIHuggingface | lineart_realistic | |
| Predicción de ruido | Mapa de profundidad de Midas | CivitAIHuggingface | depth_midas | Nueva versión |
| Predicción de ruido | Garabato HED | CivitAIHuggingface | scribble_hed | |
| Predicción de ruido | Garabato de Pidinet | CivitAIHuggingface | scribble_pidinet | |
| Predicción de ruido | Azulejo | CivitAIHuggingface | tile |
Ten en cuenta que al usar ControlNet, debes COINCIDIR el tipo de preprocesador que estás usando con el tipo de preprocesador que requiere ControlNet. Además, NO NECESITAS coincidir el tipo de predicción del modelo base con el tipo de predicción de ControlNet.
Próximamente.
La mayoría de los LoRAs se pueden usar tanto para versiones de predicción de ruido como de predicción V, y viceversa.
Primero que nada, necesitamos aclarar que el papel de los prompts es guiar. Los buenos prompts pueden liberar el potencial del modelo, pero un mal o incluso incorrecto prompt puede no necesariamente empeorar los resultados. Diferentes modelos tienen diferentes usos óptimos de prompts, y el efecto de un mal uso a menudo no es obvio, y en algunos casos, incluso puede mejorar. Esta guía de prompts registra el mejor teórico de ingeniería de prompts del modelo, y los lectores capaces también pueden usarlo libremente.
Esta sección proporcionará una guía detallada para escribir prompts, incluyendo estándares de escritura de prompts, uso específico de palabras clave de rol y estilo, uso de etiquetas especiales, y más. Los lectores interesados en la ingeniería de prompts pueden elegir leer selectivamente.
NoobAI-XL tiene la misma especificación de prompt que otros modelos base similares a anime. Esta sección introducirá sistemáticamente las especificaciones básicas de escritura de prompts y ayudará a los lectores a eliminar conceptos erróneos comunes en la comunidad.
Según los diferentes formatos, los prompts se pueden dividir en dos categorías: etiquetas y lenguaje natural. Las primeras se utilizan principalmente para modelos de anime, y las últimas se utilizan principalmente para modelos de la vida real. Independientemente de qué prompt, a menos que el modelo especifique lo contrario, solo debe contener letras en inglés, números y símbolos.
Las etiquetas están compuestas de palabras o frases en inglés en minúsculas separadas por comas en inglés “,”, por ejemplo, “1girl, solo, blue hair” contiene tres etiquetas, “1girl”, “solo” y “blue hair”.
Los espacios extra y los caracteres de nueva línea en el prompt no afectarán el efecto real de generación. En otras palabras, “1girl, solo, blue hair” y “1girl, solo, blue hair” tienen exactamente el mismo efecto.
Los prompts no deben contener guiones bajos “_”. Influidos por sitios web como Danbooru, se ha difundido el uso de guiones bajos “_” en lugar de espacios entre palabras como etiquetas, lo cual es un mal uso y causará que los resultados generados sean diferentes de usar espacios. La mayoría de los modelos, incluido NoobAI-XL, no recomiendan incluir guiones bajos en los prompts. Este mal uso puede afectar la calidad de la generación en el mejor de los casos, e incluso hacer que las palabras clave sean completamente inválidas en el peor de los casos.
Escapa los paréntesis si es necesario. Los paréntesis, incluidos los corchetes redondos (), corchetes [] y llaves {}, son símbolos muy especiales en los prompts. A diferencia de los símbolos generales, en la mayoría de las UIs de generación de imágenes, los paréntesis se interpretan como un peso específico de contenido, y los paréntesis que participan en el peso no jugarán su significado original. Sin embargo, ¿qué pasa si el prompt original necesita incluir paréntesis, como algunas palabras clave? La respuesta es que la función de peso de los paréntesis se puede eliminar agregando una barra invertida “\” antes de los paréntesis. Esta operación de cambiar el significado original de un carácter se llama escape, y las barras invertidas también se llaman caracteres de escape. Por ejemplo, si no usas una barra invertida para escapar, el prompt “1girl, ganyu ( genshin impact ) ” se interpretará incorrectamente como “1girl, ganyu genshin impact”, donde “genshin impact” está ponderado y los paréntesis desaparecen. Al agregar un carácter de escape, el prompt se convierte en “1girl, ganyu \ ( genshin impact \) ”, como se esperaba.
En resumen, la estandarización de etiquetas se divide en dos pasos: (i) reemplazar guiones bajos con espacios en cada etiqueta, y (ii) agregar una barra invertida “\” antes de los paréntesis.
Las etiquetas directamente de Danbooru y e621 tienen un efecto expresivo más fuerte. Por lo tanto, en lugar de crear tus propias etiquetas, recomendamos que los lectores busquen etiquetas directamente en estos dos sitios web. Cabe señalar que las etiquetas obtenidas directamente de esta manera están separadas por un guion bajo “_” y los paréntesis no están escapados. Por lo tanto, antes de agregar pistas a las etiquetas de ellos, necesitas eliminar los espacios en las etiquetas y escapar los paréntesis. Por ejemplo, trata las etiquetas de Danbooru “ ganyu_ (genshin_impact) ” como “ganyu\ (genshin impact\) ” antes de usarlas.
No uses etiquetas meta inválidas. Las etiquetas meta ( etiquetas meta ) son un tipo especial de etiqueta en Danbooru utilizadas para indicar las características de los archivos de imagen o las obras en sí. Por ejemplo, “ highres ” indica que la imagen tiene alta resolución, “ oil_painting_ (medium) ” indica que la imagen está en el estilo de pintura al óleo. Sin embargo, no todas las etiquetas meta están relacionadas con el contenido o la forma de la imagen. Por ejemplo, “ commentary_request ” indica que la publicación de Danbooru tiene una solicitud de traducción para la obra, lo que no tiene relación directa con la obra en sí y, por lo tanto, no tiene efecto.
Las palabras clave secuenciales son mejores. NoobAI-XL recomienda escribir prompts en orden lógico, de primario a secundario. Un posible orden de escritura es el siguiente, solo para referencia:
< 1girl/1boy/1other/female/male/… >, < personaje >, < serie >, < artista (s) >, < etiquetas generales >, < otras etiquetas >, < etiquetas de calidad & estética >
Entre ellas, las < etiquetas de calidad & estética > pueden ser prefijadas.
Los prompts de lenguaje natural están compuestos de oraciones, cada una comenzando con una letra mayúscula y terminando con un punto “.”. La mayoría de los modelos de anime, incluido NoobAI-XL, tienen una mejor comprensión de las etiquetas, por lo que el lenguaje natural se usa a menudo como un auxiliar en lugar de un componente principal en los prompts.
NoobAI-XL soporta la generación directa de una gran cantidad de personajes y estilos de artistas hechos por fans. Los personajes y estilos son activados por nombres, que también son etiquetas llamadas palabras clave. Puedes buscar directamente en Danbooru o e621 , y estandarizar las etiquetas resultantes como prompts.
Hay algunas diferencias en la forma en que se activan los personajes y los artistas.
La siguiente tabla demuestra algunos casos correctos e incorrectos de activación de personajes y estilos:
| Tipo | Palabra del prompt | Correcto o incorrecto | Razón |
| Rol | Rei Ayanami | Incorrecto | El nombre del personaje debería ser “ ayanami rei ”.No se agregó la etiqueta de serie “ neon genesis evangelion ”. |
| Rol | character:ganyu \(genshin impact\), genshin impact | Incorrecto | Se agregó superficialmente el prefijo “character:”. |
| Rol | ganyu_\(genshin impact\) | Incorrecto | No hay etiquetas completamente normalizadas: no deben contener guiones bajos.No se agregaron etiquetas de serie. |
| Rol | ganyu (genshin impact), genshin impact | Incorrecto | No hay etiquetas completamente normalizadas: los paréntesis no están escapados. |
| Rol | ganyu (genshin impact\), genshin impact | Incorrecto | No hay etiquetas completamente normalizadas: el paréntesis izquierdo no está escapado. |
| Rol | ganyu \(genshin impact\),genshin impact | Incorrecto | Se separaron dos etiquetas con una coma china |
| Rol | ganyu \(genshin impact\), genshin impact | Correcto | |
| Estilo de artista | by wlop | Incorrecto | Se agregó superficialmente el prefijo “by”. |
| Estilo de artista | artist:wlop | Incorrecto | Se agregó superficialmente el prefijo “artist:”. |
| Estilo de artista | dino | Incorrecto | El nombre del artista es incorrecto, el nombre del artista de aidxl/artiwaifu no debe usarse, sino que debe seguir a Danbooru, por lo que es “ dino\ (dinoartforame\) ”. |
| Estilo de artista | wlop | Correcto |
Para tu conveniencia, también proporcionamos un formulario completo de palabras clave en el noob-wiki para tu referencia:
| Tipo de tabla | Enlace de descarga |
| Personaje de Danbooru | Haz clic aquí |
| Estilo de Artista de Danbooru | Haz clic aquí |
| Personaje de E621 | Haz clic aquí |
| Estilo de Artista de E621 | Haz clic aquí |
Cada uno de estos formularios contiene una tabla de palabras clave de una de las bases de datos Danbooru y e621. Cada fila de la tabla representa un personaje o estilo de artista. Solo necesitas encontrar la fila correspondiente al personaje o estilo de artista deseado, copiar la sección “ trigger ” y pegarla en la palabra del prompt tal como está. Si no estás seguro sobre un personaje o estilo de artista, también puedes hacer clic en el enlace en la columna “url” para ver el diagrama de ejemplo en el sitio web. La siguiente tabla explica el significado de cada columna. No todas las tablas contienen todas las columnas.
| Listados | Significado | Observaciones |
| personaje | El nombre de la etiqueta del rol en el sitio web correspondiente. | |
| artista | Estilo de artista en el nombre de la etiqueta del sitio web correspondiente. | |
| trigger | Palabras clave después de la estandarización. | Cópialo y pégalo en la palabra del prompt tal como está y úsalo. |
| count | Número de imágenes con esta etiqueta. | Como expectativa del grado de restauración de este concepto. Para personajes, un conteo superior a 200 puede ser mejor restaurado. Para estilo, un conteo superior a 100 puede ser mejor restaurado. |
| url | Página de etiqueta en el sitio web original. | |
| solo_count | El número de imágenes en el conjunto de datos con esta etiqueta y solo un personaje en la imagen. | Tabla de roles solamente. Para roles, un solo_count superior a 50 puede restaurarse mejor. Cuando el grado de reducción se juzga por el conteo, la desviación de la columna de conteo es grande y la precisión es baja, mientras que el solo_count es un indicador más preciso. |
| core_tags | Las etiquetas características centrales del personaje incluyen apariencia, género y vestimenta. Separadas por comas en inglés, cada etiqueta ha sido estandarizada. | Solo lista de personajes de Danbooru. Cuando se activan personajes poco populares y su grado de restauración es insuficiente, se pueden agregar varias etiquetas de características centrales para mejorar el grado de restauración. |
Las etiquetas especiales son un tipo de etiqueta con significados y efectos especiales que sirven como función auxiliar.
Las etiquetas de calidad son en realidad etiquetas de popularidad obtenidas de datos estadísticos basados en las preferencias de los usuarios de Danbooru y e621. En orden de calidad de alta a baja:
masterpiece > best quality > high quality / good quality > normal quality > low quality / bad quality > worst quality
Las etiquetas estéticas se puntúan según el modelo de puntuación estética. Hasta ahora solo hay dos, “ very awa ” y “ worst aesthetic ”. La primera es la data con waifu-scorer-v3 y waifu-scorer-v4-beta puntuaciones en el 5% superior, y la última es la data con el 5% inferior. Se llama very awa porque sus estándares estéticos son similares al modelo A rti Wa ifu Diffusion . Además, una etiqueta estética que aún está en entrenamiento y no tiene un efecto obvio es “very as2”, que es la data con “ aesthetic-shadow-v2-5 ” puntuaciones en el 5% superior.
Comparación de los efectos de las etiquetas estéticas
Hay cuatro etiquetas de seguridad/calificación: general , sensitive , nsfw y explicit .
Esperamos que los usuarios agreguen conscientemente “nsfw” en los prompts negativos para filtrar contenido inapropiado. 😀
La etiqueta de año se utiliza para indicar el año de creación de la obra, afectando indirectamente la calidad, estilo, grado de restauración del personaje , etc. Su formato es “ año xxxx ”, donde “xxxx” es un año específico, como “año 2024”.
Las etiquetas de periodo son etiquetas de año que también tienen un impacto significativo en la calidad de la imagen. La correspondencia entre etiquetas y años se muestra en la tabla a continuación.
| Rango de años | 2021~2024 | 2018~2020 | 2014~2017 | 2011~2013 | 2005~2010 |
| Etiqueta de periodo | más nuevo | reciente | medio | temprano | viejo |
Esta sección proporciona ejemplos de uso recomendados de prompts solo para referencia.
El siguiente punto de partida recomendado utiliza etiquetas especiales, que son las que tienen la mayor correlación con la calidad de la imagen.
very awa, masterpiece, best quality, year 2024, newest, highres, absurdres
La siguiente tabla introduce etiquetas negativas comunes y sus fuentes. No todas las etiquetas negativas son necesariamente malas, y usarlas correctamente puede tener efectos inesperados.
| Etiqueta | Traducción | Observaciones | Fuente |
| Etiqueta de Calidad | |||
| worst aesthetic | La peor estética | Contiene conceptos estéticos bajos como baja calidad, marcas de agua, cómics, vistas múltiples y bocetos inacabados | Estética |
| worst quality | Peor calidad | Calidad | |
| baja calidad | Baja calidad | La baja calidad de Danbooru | Calidad |
| mala calidad | Baja calidad | Baja calidad de e621 | Calidad |
| lowres | Baja resolución | Danbooru | |
| scan artifacts | Artefacto de escaneo | Danbooru | |
| jpeg artifacts | Artefacto de compresión de imagen JPEG | Danbooru | |
| lossy-lossless | - | Las imágenes que han sido convertidas de un formato de imagen con pérdida a un formato de imagen sin pérdida suelen estar llenas de artefactos. | Danbooru |
| Etiquetas de Composición y Forma de Arte | |||
| ai-generated | Generado por AI | Generado por AI, a menudo tiene una sensación grasosa generada por AI. | Danbooru |
| abstract | Abstracto | Eliminar líneas desordenadas | Danbooru |
| official art | Arte oficial | Ilustraciones hechas por la empresa/artista oficial de la serie o personaje. El copyright , empresa o nombre del artista , y aviso de copyright pueden estar impresos en algún lugar de la imagen. | Danbooru |
| old | Imágenes tempranas | Periodo | |
| 4koma | Cómic de cuatro paneles | Danbooru | |
| multiple views | Vista múltiple | Danbooru | |
| reference sheet | Diseño de personalidad | Danbooru | |
| dakimakura \(medium\) | Diagrama de almohada de lanzamiento | Danbooru | |
| turnaround | Vista de cuerpo completo en tres vistas | Danbooru | |
| comic | Cómic | Danbooru | |
| greyscale | Mapa de lanzamiento de canario | Imagen en blanco y negro | Danbooru |
| monochrome | Monocromo | Imagen en blanco y negro | Danbooru |
| sketch | Boceto | Danbooru | |
| unfinished | Trabajo inacabado | Danbooru | |
| Etiqueta de E621 | |||
| furry | Furry | e621 | |
| anthro | Furia Personificada | e621 | |
| feral | Furry | e621 | |
| semi-anthro | Furia Semiantropomórfica | e621 | |
| mammal | Mamíferos (Furia) | e621 | |
| Etiqueta de Marca de Agua | |||
| watermark | Marca de agua | Danbooru | |
| logo | LOGO | Danbooru | |
| signature | Firma del artista | Danbooru | |
| text | Texto | Danbooru | |
| artist name | Nombre del artista | Danbooru | |
| dated | Fecha | Danbooru | |
| username | Nombre de usuario | Danbooru | |
| web address | Sitio web | Danbooru | |
| Etiqueta Anatómica | |||
| bad hands | Mano mala | Danbooru | |
| bad feet | Pie malo | Danbooru | |
| extra digits | Dedos extra | Danbooru | |
| fewer digits | Dedos faltantes | Danbooru | |
| extra arms | Múltiples brazos | Danbooru | |
| extra faces | Múltiples facetas | Danbooru | |
| multiple heads | Bulls | Danbooru | |
| missing limb | Menos extremidad | Danbooru | |
| amputee | Pérdida de extremidades | Danbooru | |
| severed limb | Amputación | Danbooru | |
| mutated hands | Mano mutada | - | |
| distorted anatomy | |||