
By gerogero
Updated: February 7, 2026
Esta es una guía para principiantes que te ayudará a instalar Wan y implementar cada optimización disponible para maximizar la velocidad de generación de video.
Ahora, lograr esto implica compromisos en calidad, pero puedes desactivar fácilmente cualquiera de las optimizaciones si prefieres priorizar la calidad sobre la velocidad.
La guía y los flujos de trabajo incluidos están diseñados para GPUs con 24GB o más de VRAM, utilizando típicamente entre 21-23GB durante la generación. Si bien es posible usar una GPU con menos de 24GB, necesitarás hacer ajustes. Por ejemplo, una GPU de 16GB puede usar modelos FP8/Q8, siempre que aumentes la configuración de virtual_vram_gb o de intercambio de bloques en los flujos de trabajo proporcionados. A esto llegaremos más adelante.
Si tienes menos de 16GB, probablemente querrás usar los modelos cuantizados por debajo de Q8, pero ten en cuenta que usar un nivel de cuantización más bajo reducirá la calidad de tus salidas. En general, cuanto más bajo vayas, menor será la calidad que obtendrás.
ComfyUI Portable
ComfyUI Manager
CUDA 12.6
Wan 2.1 se puede integrar en ComfyUI a través de dos enfoques: Soporte nativo o Wrapper de Kijai. El Wrapper de Kijai tiene características adicionales que el nativo no tiene (flowedit, vid2vid, etc.), mientras que el nativo cuenta con varias ventajas que no están disponibles en la versión de Kijai. Estas son: soporte para modelos gguf, Guía Adaptativa (un método para acelerar las generaciones a costa de calidad) y compatibilidad con TorchCompile no solo en las series de GPU 40XX y 50XX, sino también en la serie 30XX, lo que acelera las generaciones en un 30% adicional aproximadamente. Así que si estás usando menos de 24GB de VRAM y/o quieres las velocidades de generación más rápidas, el nativo es probablemente la mejor opción.
Una vez que hayas decidido un método y su flujo de trabajo asociado, procede a los pasos generales de instalación.
Descarga estas versiones modificadas de los flujos de trabajo predeterminados de Kijai. Más allá de las optimizaciones y algunas características adicionales, utilizan la configuración predeterminada de Alibaba como base. El flujo de trabajo genera dos videos, uno en bruto a 16 fps y una versión interpolada a 32 fps. Puedes adaptarlos fácilmente para usar el modelo/configuración de 720P. Consulta Generando a 720P.
/ldg/ Flujo de trabajo KJ i2v 480p: ldg_kj_i2v_14b_480p.json
(actualizado 17 de marzo de 2025)
/ldg/ Flujo de trabajo KJ t2v 480p: ldg_kj_t2v_14b_480p.json
(actualizado 17 de marzo de 2025)
¡NO uses archivos de modelo Comfy con los de KJ! ¡Tienes que usar estos o encontrarás problemas!
Descarga estas versiones modificadas de los flujos de trabajo de Comfy, basadas en uno de un anónimo de /ldg/. Más allá de las optimizaciones y algunas características adicionales, utilizan la configuración predeterminada de Alibaba como base. El flujo de trabajo genera dos videos, uno en bruto a 16 fps y una versión interpolada a 32 fps. Puedes adaptarlos fácilmente para usar el modelo/configuración de 720P. Consulta Generando a 720P.
/ldg/ Flujo de trabajo Comfy i2v 480p: ldg_cc_i2v_14b_480p.json
(actualizado 17 de marzo de 2025)
/ldg/ Flujo de trabajo Comfy t2v 480p: ldg_cc_t2v_14b_480p.json
(actualizado 17 de marzo de 2025)
¡NO uses los archivos del codificador de texto de Kijai con estos modelos! ¡Tienes que usar estos codificadores de texto o dará error antes de generar con Exception during processing !!! mat1 and mat2 shapes cannot be multiplied (77x768 and 4096x5120)
pytorch version: 2.7.0.dev20250306+cu126 se muestre durante el inicio. También deberías ver Enabled fp16 accumulation y Using sage attention.Hay un posible error cuando actualizas extensiones o reinicias que informa una versión incorrecta de pytorch. Si eso sucede, cierra Comfy y reinicia. Esto parece suceder con más frecuencia si usas el botón de "Reiniciar" en comfy después de actualizar extensiones, así que ciérralo manualmente y ábrelo manualmente después de actualizar extensiones. También puede suceder después de actualizar Comfy. Si tras un segundo reinicio aún no es 2.7.0dev, repite el paso 5.
ComfyUI-GGUF extensión.Si aún se queja de nodos faltantes después de instalarlos y reiniciar Comfy, es posible que necesites instalar los nodos faltantes manualmente. Si esto sucede usando el wrapper de KJ, instala el wrapper manualmente desde su repositorio, eliminando la versión anterior de custom_nodes de antemano. Lo mismo ocurre con KJNodes si se queja de que falta WanVideoEnhanceAVideoKJ. Asegúrate de seguir las instrucciones de instalación para la instalación portátil.
2.7.0dev o fp16_fast / fp16 accumulation no funcionará.El tiempo de generación inicial que obtienes es NO exacto. Teacache se activa durante la generación, y Adaptive alrededor de la mitad si estás en Comfy Nativo/Core.
Cuando un video termina de generarse, obtendrás dos archivos en sus propios directorios i2v o t2v y subdirectorios. Los archivos en bruto son las salidas de 16 fotogramas, mientras que los archivos int son interpolados a 32 fotogramas, lo que te brinda un movimiento mucho más suave.
Se recomienda encarecidamente que habilites las vistas previas durante la generación. Si seguiste la guía, tendrás la extensión requerida. Ve a Configuraciones de ComfyUI (el ícono de engranaje en la esquina inferior izquierda) y busca "Mostrar vistas previas animadas al muestrear". Actívala. Luego abre el Administrador de Comfy y establece el método de vista previa en TAESD (lento). La salida se volverá más clara alrededor del paso 10, y tendrás una idea general de la composición y el movimiento. Esto puede y te ahorrará mucho tiempo, ya que puedes cancelar las generaciones temprano si no te gusta cómo se ven.
NUNCA uses el modelo i2v de 720p a resoluciones de 480p y viceversa. Si usas el modelo i2v de 720p y configuras tu resolución a 832×480, por ejemplo, la salida que obtendrás será mucho peor que simplemente usar el modelo i2v de 480p. Nunca mejorarás la calidad generando 480p en el modelo de 720p, así que no lo hagas. El único modelo que te permite mezclar resoluciones de 480p y 720p es t2v 14B.
Cada modelo está entrenado y ajustado para resoluciones específicas. En teoría, desviarse de estas resoluciones precisas puede producir resultados peores en comparación con ceñirse a las soportadas, especialmente para i2v.
Sin embargo, en mi experiencia, he utilizado con éxito resoluciones no estándar con i2v sin problemas notables, siempre que los ajustes se mantengan razonables. Por ejemplo, deberías evitar hacer desviaciones drásticas de 480p o 720p, y siempre anclar una dimensión - ya sea 480 para modelos de 480p o 720 para modelos de 720p - mientras escalas la otra dimensión hacia abajo (nunca hacia arriba) para ajustar la relación de aspecto. Esto significa que una dimensión debe estar consistentemente fijada en 480 o 720, dependiendo del modelo, con la otra dimensión ajustada hacia abajo según sea necesario. Y nunca querrás exceder el valor máximo establecido de 832 para 480p y 1280 para 720p, ya que aumentarás drásticamente el tiempo de generación y saldrás de los límites de resolución establecidos por los desarrolladores del modelo.
Estas son las resoluciones 'soportadas' según se indica en el repositorio oficial de Wan:
| Texto a Video - 1.3B | Texto a Video - 14B | Imagen a Video - 480p | Imagen a Video - 720p |
|---|---|---|---|
| 480*832 | 720*1280 | 832*480 | 1280*720 |
| 832*480 | 1280*720 | 480*832 | 720*1280 |
| 624*624 | 960*960 | ||
| 704*544 | 1088*832 | ||
| 544*704 | 832*1088 | ||
| 480*832 | |||
| 832*480 | |||
| 624*624 | |||
| 704*544 | |||
| 544*704 |
Si deseas usar el modelo de 720p en i2v o resolución de 720p en t2v, necesitarás:
Varias opciones en esta guía aceleran el tiempo de inferencia. Son fp16_fast (acumulación fp16), TeaCache, Torch Compile, Guía Adaptativa (exclusiva de Comfy Nativo) y Atención Sage. Si deseas desactivarlas para pruebas o aumentar la calidad a costa de tiempo, haz lo siguiente:

Complicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt...

This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ...

GPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren...

This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif...

