
By gerogero
Updated: February 7, 2026
Ceci est un guide pour débutants afin de vous aider à installer Wan et mettre en œuvre toutes les optimisations disponibles pour maximiser la vitesse de génération vidéo.
Atteindre cet objectif implique des compromis en matière de qualité, mais vous pouvez facilement désactiver l'une des optimisations si vous préférez privilégier la qualité à la vitesse.
Le guide et les flux de travail inclus sont adaptés aux GPU avec 24 Go ou plus de VRAM, utilisant généralement 21 à 23 Go pendant la génération. Bien qu'il soit possible d'utiliser un GPU avec moins de 24 Go, vous devrez apporter des ajustements. Par exemple, un GPU de 16 Go peut utiliser des modèles FP8/Q8, à condition d'augmenter les paramètres virtual_vram_gb ou block swapping dans les flux de travail fournis. Nous y reviendrons plus tard.
Si vous avez moins de 16 Go, vous voudrez probablement utiliser les modèles quantifiés en dessous de Q8, mais gardez à l'esprit que l'utilisation d'un niveau de quantification inférieur réduira la qualité de vos sorties. En général, plus vous descendez, plus la qualité diminue.
ComfyUI Portable
ComfyUI Manager
CUDA 12.6
Wan 2.1 peut être intégré dans ComfyUI par deux approches : support natif ou Wrapper de Kijai. Le Wrapper de Kijai a des fonctionnalités supplémentaires que le natif n'a pas (flowedit, vid2vid, etc.), tandis que le natif présente plusieurs avantages indisponibles dans la version de Kijai. Ceux-ci incluent : le support des modèles gguf, la Guidance Adaptative (une méthode pour accélérer les générations au détriment de la qualité) et la compatibilité TorchCompile non seulement avec les séries de GPU 40XX et 50XX, mais aussi avec la série 30XX, ce qui accélère les générations d'environ 30 % supplémentaires. Donc, si vous utilisez moins de 24 Go de VRAM et/ou souhaitez les vitesses de génération les plus rapides, le natif est probablement la meilleure option.
Une fois que vous avez choisi une méthode et son flux de travail associé, passez aux étapes d'installation générales.
Téléchargez ces versions modifiées des flux de travail par défaut de Kijai. Au-delà des optimisations et de quelques fonctionnalités supplémentaires, ils utilisent les paramètres par défaut d'Alibaba comme base. Le flux de travail produit deux vidéos, une brute à 16 fps et une version interpolée à 32 fps. Vous pouvez facilement les adapter pour utiliser le modèle/réglage 720P. Voir Générer en 720P.
/ldg/ Flux de travail KJ i2v 480p : ldg_kj_i2v_14b_480p.json
(mis à jour le 17 mars 2025)
/ldg/ Flux de travail KJ t2v 480p : ldg_kj_t2v_14b_480p.json
(mis à jour le 17 mars 2025)
Ne pas utiliser les fichiers de modèle Comfy avec ceux de KJ ! Vous DEVEZ utiliser ceux-ci ou vous rencontrerez des problèmes !
Téléchargez ces versions modifiées des flux de travail de Comfy, basées sur celles d'un anonyme de /ldg/. Au-delà des optimisations et de quelques fonctionnalités supplémentaires, elles utilisent les paramètres par défaut d'Alibaba comme base. Le flux de travail produit deux vidéos, une brute à 16 fps et une version interpolée à 32 fps. Vous pouvez facilement les adapter pour utiliser le modèle/réglage 720P. Voir Générer en 720P.
/ldg/ Flux de travail Comfy i2v 480p : ldg_cc_i2v_14b_480p.json
(mis à jour le 17 mars 2025)
/ldg/ Flux de travail Comfy t2v 480p : ldg_cc_t2v_14b_480p.json
(mis à jour le 17 mars 2025)
Ne pas utiliser les fichiers d'encodeur de texte de Kijai avec ces modèles ! Vous DEVEZ utiliser ces encodeurs de texte ou cela générera une erreur avant de générer avec Exception during processing !!! mat1 and mat2 shapes cannot be multiplied (77x768 and 4096x5120)
pytorch version: 2.7.0.dev20250306+cu126 s'affiche au démarrage. Vous devriez également voir Enabled fp16 accumulation et Using sage attention.Il y a un bug possible lorsque vous mettez à jour des extensions ou redémarrez qui signale une version incorrecte de pytorch. Si cela se produit, fermez Comfy et redémarrez. Cela semble se produire le plus souvent si vous utilisez le bouton « Redémarrer » dans Comfy après avoir mis à jour les extensions, donc fermez-le manuellement et démarrez-le manuellement après avoir mis à jour les extensions. Cela peut également se produire après la mise à jour de Comfy. Si après un second redémarrage, cela n'est toujours pas 2.7.0dev, refaites l'étape 5.
ComfyUI-GGUF.Si cela se plaint toujours de nœuds manquants après les avoir installés et redémarré Comfy, vous devrez peut-être installer les nœuds manquants manuellement. Si cela se produit en utilisant le wrapper de KJ, installez le wrapper manuellement depuis son dépôt, en supprimant la version ancienne des nœuds personnalisés au préalable. Il en va de même pour KJNodes s'il se plaint de manquer WanVideoEnhanceAVideoKJ. Assurez-vous de suivre les instructions d'installation pour l'installation portable.
2.7.0dev ou fp16_fast / fp16 accumulation ne fonctionnera pas.Le temps de génération initial que vous obtenez est NON précis. Teacache entre en jeu pendant la génération, et Adaptive à peu près à mi-chemin si vous êtes sur Comfy Native/Core.
Lorsque la vidéo a fini de générer, vous obtiendrez deux fichiers dans leurs propres répertoires i2v ou t2v et sous-répertoires. Les fichiers bruts sont les sorties à 16 images tandis que les fichiers int sont interpolés à 32 images, ce qui vous donne un mouvement beaucoup plus fluide.
Il est fortement recommandé d'activer les aperçus pendant la génération. Si vous avez suivi le guide, vous aurez l'extension requise. Allez dans les paramètres de ComfyUI (l'icône d'engrenage en bas à gauche) et recherchez « Afficher les aperçus animés lors de l'échantillonnage ». Activez-le. Ensuite, ouvrez le Gestionnaire Comfy et définissez la méthode d'aperçu sur TAESD (lent). La sortie deviendra plus claire vers l'étape 10, et vous aurez une idée générale de la composition et du mouvement. Cela peut et va vous faire gagner beaucoup de temps, car vous pouvez annuler des générations tôt si vous n'aimez pas leur apparence.
NE JAMAIS utiliser le modèle i2v 720p à des résolutions 480p et vice versa. Si vous utilisez le modèle i2v 720p et définissez votre résolution à 832×480 par exemple, la sortie que vous obtiendrez sera bien pire que simplement utiliser le modèle i2v 480p. Vous n'améliorerez jamais la qualité en générant du 480p sur le modèle 720p, donc ne le faites pas. Le seul modèle qui vous permet de mélanger les résolutions 480p et 720p est t2v 14B.
Chaque modèle est entraîné et affiné pour des résolutions spécifiques. En théorie, s'écarter de ces résolutions précises peut produire des résultats moins bons par rapport à rester avec celles prises en charge, surtout pour i2v.
Cependant, d'après mon expérience, j'ai utilisé avec succès des résolutions non standard avec i2v sans problèmes notables, tant que les ajustements restaient raisonnables. Par exemple, vous devriez éviter de faire des écarts drastiques par rapport à 480p ou 720p, et toujours ancrer une dimension – soit 480 pour les modèles 480p ou 720 pour les modèles 720p – tout en réduisant l'autre dimension (jamais en l'augmentant) pour ajuster le rapport d'aspect. Cela signifie qu'une dimension doit être fixée soit à 480 soit à 720, selon le modèle, avec l'autre dimension ajustée vers le bas si nécessaire. Et vous ne devez jamais dépasser la valeur maximale fixée de 832 pour 480p et 1280 pour 720p, car vous augmenterez considérablement le temps de génération et sortirez des limites de résolution fixées par les développeurs du modèle.
Voici les résolutions « prises en charge » telles que listées dans le dépôt officiel de Wan :
| Texte à Vidéo – 1.3B | Texte à Vidéo – 14B | Image à Vidéo – 480p | Image à Vidéo – 720p |
|---|---|---|---|
| 480*832 | 720*1280 | 832*480 | 1280*720 |
| 832*480 | 1280*720 | 480*832 | 720*1280 |
| 624*624 | 960*960 | ||
| 704*544 | 1088*832 | ||
| 544*704 | 832*1088 | ||
| 480*832 | |||
| 832*480 | |||
| 624*624 | |||
| 704*544 | |||
| 544*704 |
Si vous souhaitez utiliser le modèle 720p en i2v ou la résolution 720p sur t2v, vous devrez :
Plusieurs options dans ce guide accélèrent le temps d'inférence. Elles sont fp16_fast (accumulation fp16), TeaCache, Torch Compile, AdaptiveGuidance (exclusif à Comfy Native) et Sage Attention. Si vous souhaitez les désactiver pour des tests ou pour augmenter la qualité au détriment du temps, faites ce qui suit :

Complicated desired outputs = Complex prompts with mix of natural language and tags [postcard=89ntmto] Complex prompt...

This guide was created to bring inspiration to this visual vocabulary. There is a short description for each pose so ...

GPT-4o, released on March 25, 2025 went viral soon after release, bolstered by the Studio Ghibli animation style tren...

This guide is intended to get you generating quality NSFW images as quickly as possible with Automatic1111 Stable Dif...

