
Stable Diffusion
Le modèle de génération d'images open-source le plus populaire
Presentation
Stable Diffusion est un modèle de génération d’images open-source développé par Stability AI. Sa nature ouverte permet à quiconque de l’utiliser, le modifier, et l’héberger localement.
C’est l’outil de choix pour ceux qui veulent un contrôle total, des personnalisations poussées (LoRAs, ControlNet), ou qui souhaitent générer des images sans restrictions.
Comment utiliser
Via DreamStudio (stability.ai), Clipdrop, ou de nombreuses interfaces tierces.
Installez Automatic1111, ComfyUI, ou Fooocus pour une utilisation locale gratuite et sans limites.
- LoRA : Petits modèles additionnels pour des styles spécifiques
- ControlNet : Contrôle précis de la pose, profondeur, contours
- Embeddings : Concepts personnalisés
Astuces & conseils
Optimiser le prompt
Commencez par un prompt positif précis et ajoutez un prompt négatif pour exclure les défauts. Testez des modèles personnalisés (checkpoints) pour des styles spécifiques.
Maîtriser les paramètres
Réglez le CFG Scale entre 7 et 12 pour un bon équilibre créativité/précision. Gardez les steps entre 20 et 50 pour des résultats rapides et propres.
Utiliser les LoRA
Intégrez des LoRA pour styliser vos images sans réentraîner le modèle. Un poids de 0.7-0.9 suffit souvent pour un effet naturel.
Contrôler la composition
Employez ControlNet avec des images de référence pour guider la pose ou la perspective. Cela garantit une cohérence parfaite dans vos séries.
Économiser la VRAM
Activez --medvram ou --lowvram au lancement si votre GPU a moins de 8 Go. Cela ralentit mais permet d'utiliser SD sur des configs modestes.
Fonctionnalites cles
Tarifs & plans
Local
Gratuit
- Installation sur votre PC
- GPU 8GB+ recommandé
- Illimité
DreamStudio
Crédits
- 1000 crédits = 10$
- ~5000 images
- SD 3.5, SDXL
Questions frequentes
Glossaire associe
Checkpoint
Fichier contenant le modèle entraîné de Stable Diffusion, déterminant le style et la qualité des images générées.
LoRA
Petit module qui s'ajoute au modèle pour apprendre un style ou un sujet spécifique sans modifier le checkpoint principal.
CFG Scale
Paramètre qui contrôle à quel point l'image doit respecter strictement votre prompt textuel.
Sampling method
Algorithme qui détermine comment le bruit est retiré progressivement pour créer l'image finale (Euler, DPM++, etc.).
ControlNet
Extension qui permet de guider la génération en utilisant des images de référence pour la pose, la profondeur ou les contours.
Prompt négatif
Liste de mots ou phrases à exclure de l'image, utile pour éviter les défauts comme des mains déformées.
Upscale
Processus d'augmentation de la résolution d'une image générée via des modèles spécialisés comme ESRGAN ou SwinIR.