Tutoriel

Guide Stable Diffusion : générer des images IA gratuitement (2026)

Sommaire

Qu'est-ce que Stable Diffusion ?

Stable Diffusion est un générateur d'images IA open-source et gratuit qui donne à chacun le pouvoir de créer des images IA magnifiques sans limitation de quota. Developpe par Stability AI en 2022, Stable Diffusion a démocratisé la génération d'images en rendant la technologie accessible à tous, non pas réservé aux entreprises ayant des budgets massifs.

Contrairement à Midjourney qui nécessite un abonnément, ou DALL-E qui utilise un système de credits, Stable Diffusion est complètement gratuit et fonctionne même sur des ordinateurs ordinaires. Vous pouvez installer Stable Diffusion localement sur votre ordinateur et générer illimitement des images sans jamais payer un centime.

En 2026, il existe plusieurs interfaces populaires pour utiliser Stable Diffusion, comme Automatic1111 WebUI, ComfyUI, et diverses applications web. Pour explorer Stable Diffusion directement, visitez notre page complète sur Stable Diffusion. Si vous voulez comparer Stable Diffusion avec Midjourney, consultez notre guide complet des meilleurs générateurs d'images IA gratuits.

Vous pourriez aussi être interesse par Midjourney comme alternative premium si vous voulez une interface plus simple et des résultats plus instantanees.

Installer Stable Diffusion

L'installation de Stable Diffusion est plus technique que les outils web, mais reste accessible aux débutants. Voici deux approches.

Option 1 : Interface Web facile (Automatic1111)

La methode la plus facile pour commencer est d'utiliser Automatic1111 WebUI, une interface web populaire pour Stable Diffusion.

Étape 1 : Installer les dependencies

Vous aurez besoin de Python 3.10 ou 3.11 installe sur votre ordinateur. Allez sur python.org et telechargez la dernière version pour votre OS.

Étape 2 : Cloner le repository

Ouvrez une terminal et executez : git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

Étape 3 : Executer le script de setup

Sur Windows, executez webui.bat. Sur Mac/Linux, executez webui.sh. Le script telecharge les modèles et configure votre environnement.

Étape 4 : Acceder l'interface

Une fois setup complète, ouvrez votre navigateur et allez à http://localhost:7860. Vous verrez l'interface Stable Diffusion.

Option 2 : Utiliser une plateforme web

Si l'installation locale semble trop technique, vous pouvez utiliser des services web gratuits ou peu chers :

  • HuggingFace Spaces : Interface web gratuite en ligne
  • Replicate : API avec credits gratuits mensuels
  • Stability AI API : Offre gratuite limitée

Configuration materielle

Stable Diffusion fonctionne mieux avec une GPU (carte graphique). Voici les configurations :

  • Ideale : GPU NVIDIA avec 8GB+ VRAM (RTX 3060 ou mieux)
  • Acceptable : GPU AMD ou Apple Silicon avec 6GB+ VRAM
  • Possible mais lent : CPU uniquement (peut prendre 2-5 minutes par image)

Découvrir l'interface de Stable Diffusion

L'interface WebUI est organise en sections bien definies.

La barre laterale gauche : Prompt et paramètres

C'est là où vous entrez votre prompt texte et sélectionnéz les paramètrès de génération. Vous verrez deux champs textes : "Prompt" pour ce que vous voulez créer, et "Negative Prompt" pour ce que vous voulez eviter.

L'onglet "txt2img"

C'est l'onglet principal pour générer des images à partir de texte. Vous entrez votre prompt et cliquez "Generate" pour créer des images.

L'onglet "img2img"

Cette onglet permet de modifier une image existante. Vous chargez une image et Stable Diffusion la transforme selon votre prompt.

L'onglet "Inpaint"

Permet d'éditer une partie spécifique d'une image. Vous dessinez la zone à modifier et Stable Diffusion la regénéré.

L'onglet "Extras"

Contient des outils additionnels comme upscaling d'images, detailing, et autres post-processing.

La section droite : Galerie et historique

Sur la droite, vous verrez les images générées et votre historique. Vous pouvez cliquer sur n'importe quelle image pour la re-générer ou la modifier.

Les tabs en haut : Modeles et extensions

Vous pouvez basculer entre différents modèles (Stable Diffusion 1.5, 2.1, XL), charger des extensions (VAE, LoRA, etc.), et accéder aux paramètrès avances.

Écrire vos premiers prompts

Les prompts pour Stable Diffusion sont similaires à ceux de Midjourney, mais il y a quelques différences.

Structure d'un bon prompt

[Sujet principal], [style/medium], [qualité et details], [lumière et atmosphère], [composition]

Exemple simple

Mauvais : "Un chat"

Bon : "Un magnifique chat orange assis sur une fenêtre ensoleille, lumière doree du matin, peinture réaliste, ultra détaillé, haute qualité, artstation"

Negative Prompt

C'est crucial avec Stable Diffusion ! Entrez ce que vous NE voulez PAS dans l'image. Exemple : "deformed, low quality, worst quality, blurry, bad hands, extra fingers"

Poids des mots cles

Vous pouvez utiliser les parentheses pour augmenter l'importance d'un mot : "(extremely detailed face):1.5". Utilisez les crochets pour diminuer : "[green]:0.3".

Techniques de prompt avancées

  • Tokens separates : Separez les concepts avec des virgules
  • Citations : "exact phrase" force exactement cette phrase
  • Blend : [concept1 | concept2] melange deux concepts
  • Sequence : [concept1 : concept2 : 0.5] transition un concept à l'autre

Exemple complet avec tous les éléments

beautiful woman, masterpiece, ultra detailed, digital painting, trending on artstation, (extremely detailed face):1.5, realistic skin texture, professional lighting, 8k résolution, ethereal atmosphère, fantasy aesthetic

Negative: deformed, low quality, worst quality, blurry, distorted face, extra fingers, bad anatomy, poorly drawn

Paramètres essentiels de Stable Diffusion

Steps (Étapes d'iteration)

Le nombre d'étapes de raffinage. Plus d'étapes = meilleure qualité mais plus lent.

  • 20-30 steps : Rapide, qualité acceptable
  • 50 steps : Bon compromis qualité/vitesse
  • 100+ steps : Qualité excellent mais très lent

CFG Scale (Guidance Scale)

Contrôle combien Stable Diffusion suit votre prompt.

  • 7-11 : Balancé naturelle entre créativité et cohérence
  • 5-7 : Plus de créativité, moins de cohérence
  • 15+ : Suit le prompt très strictement, peut être trop litteralement

Width et Height (Dimensions)

Les dimensions de l'image générée. Stable Diffusion fonctionne mieux avec des multiples de 64 pixels.

  • 512x512 : Standard, généré rapidement
  • 768x768 : Plus détaillé, plus lent
  • 1024x1024 : Très détaillé, très lent, nécessite plus VRAM

Sampler (Methode d'échantillonnage)

Differentes stratégies pour raffiner l'image. Certains samplers sont plus rapides, d'autres plus précis.

  • Euler : Rapide, bon pour commencer
  • DPM++ 2M Karras : Excellent rapport qualité/vitesse
  • LMS : Qualité excellent mais très lent

Seed (Graine aleatoire)

Un numéro que contrôle le caractere aleatoire de la génération. Le même seed avec le même prompt produit la même image. Laissez-le vide pour l'aleatoire complet.

Denoise Strength (img2img seulement)

Contrôle combien l'image originale est modifiee.

  • 0.1-0.3 : Changements subtils
  • 0.5 : Modifications moderees
  • 0.7-1.0 : Changements drastiques

Configuration recommandée pour débutants

Steps: 50, CFG: 7.5, Sampler: DPM++ 2M Karras, Width: 512, Height: 512, Seed: -1 (aleatoire)

Modeles et checkpoints personnalisés

Modeles de base

Stable Diffusion propose plusieurs modèles :

  • Stable Diffusion 1.5 : Le modèle classique, rapide, bon pour les tests
  • Stable Diffusion 2.1 : Meilleure qualité, plus lent
  • Stable Diffusion XL : Derniere version, meilleure qualité, consomme plus VRAM

Checkpoints personnalisés (Models finetuned)

La communauté a crée des centaines de modèles finetuned spécialisés dans des styles spécifiques. Vous pouvez les télécharger sur HuggingFace ou Civitai.

  • Realistic Models : Pour des images photoréalistes
  • Anime Models : Pour des images de style anime
  • Artistic Models : Pour des styles artistiques spécifiques
  • Sci-Fi Models : Specialises dans la science-fiction

Comment charger un modèle personnalisé

Telechargez le fichier .saféténsors ou .ckpt, et mettez-le dans le dossier "models/Stable-diffusion/". Redemarrez Stable Diffusion et le modèle apparaitra dans le dropdown.

LoRA (Low-Rank Adaptation)

Ce sont des petits fichiers (10-100 MB) qui modifient le comportement d'un modèle existant. Vous pouvez combiner plusieurs LoRA.

  • Telechargez un fichier .saféténsors depuis Civitai
  • Mettez-le dans le dossier "models/Lora/"
  • Dans votre prompt, utilisez : <(lora:filename:0.7)> pour l'activer avec 70% intensite

Techniques avancées

Face restoration (Restauration de visage)

Stable Diffusion à longtemps eu du mal avec les visages. La feature "Face restoration" utilise un modèle special pour corriger et améliorér les visages après génération.

Upscaling

Une fois votre image générée, vous pouvez l'upscaler jusqu'à 4x la résolution avec maintien de qualité. Cela utilise des modèles comme RealESRGAN ou Latent Diffusion Upscaler.

Inpainting pour modifications localisees

Dessinez un masque sur la partie que vous voulez modifier, et Stable Diffusion régénérera seulement cette partie selon votre nouveau prompt. C'est excellent pour corriger des details.

Control Net

Une extension puissante qui vous permet de contrôle la composition et la pose des objets. Vous pouvez charger une image de croquis ou de pose, et Stable Diffusion l'utilisera comme guide structural.

Depth to Image

Vous pouvez charger une image de profondeur pour créer des images avec une bonne composition spatiale et perspective.

Batch Processing

Generez plusieurs images en parallele pour accélérér le workflow. Definissez "Batch Count" pour générer plusieurs images sequentiellement.

Exemples pratiques de prompts

Portrait réaliste photographie

beautiful woman, photorealistic portrait, professional photography, sharp focus, studio lighting, 8k, trending on artstation, (extremely detailed face):1.5, skin texture

Negative: deformed, blurry, low quality, watermark, text, worst quality, bad anatomy

Paysage fantasy epique

epic fantasy landscape, massive mountains, mystical glowing trees, floating islands, dramatic sky, sunset, oil painting, concept art, ultra detailed, masterpiece, 8k

Negative: realistic, photo, photorealistic, low quality, blurry

Character anime magnifique

beautiful anime girl, ((perfect face)), detailed eyes, school uniform, dynamic pose, professional illustration, trending on pixiv, masterpiece, 8k

Negative: realistic, photo, western, ugly, deformed, worst quality

Design de produit futuriste

sleek futuristic headphones, product design, 3D render, studio white background, professional lighting, cinematic, ultra detailed, octane render, 8k

Negative: realistic, photo, blurry, deformed, low quality

Scene d'action cinematique

action hero explosion, dramatic cinematic lighting, smoke and sparks, professional cinematography, movie shot, ultra detailed, 8k, masterpiece

Negative: watermark, text, logo, blurry, low quality, worst quality

Erreurs courantes à eviter

1. Ignorer le Negative Prompt

Beaucoup de débutants oublient le negative prompt. C'est crucial pour eviter les artefacts et les problèmes de qualité. Includez toujours : "worst quality, low quality, deformed".

2. CFG Scale trop élevé

Un CFG de 20+ peut produire des images bizarres et oversaturees. Restez autour de 7-11 pour un bon balance.

3. Ne pas experimenter avec les samplers

Differents samplers produisent différents résultats. Experimentez pour trouver ce qui fonctionne mieux pour votre style.

4. Oublier les dimensions de base

Stable Diffusion fonctionne mieux avec des multiples de 64. Utilisez 512x512, 640x384, 768x512, etc., pas des nombres aleatoires.

5. Prompts trop longs et incohérents

Un prompt de 300 mots avec concepts conflictuels produit des résultats médiocres. Restez focus et cohérent.

6. Ignorer les details de texte

Si votre prompt ne specifie pas "4k, 8k, ultra detailed", Stable Diffusion généré souvent des images médiocres par défaut.

7. Ne pas utiliser la seed pour la reproducibilite

Si vous trouvez une seed qui produit de bons résultats, notez-la ! Vous pouvez l'utiliser pour iterer.

FAQ : Stable Diffusion pour débutants

Stable Diffusion est-il vraiment gratuit ?

Oui, complètement gratuit. Vous pouvez installer localement et générer illimitement sans jamais payer. Les seuls couts sont l'electricite pour votre ordinateur.

Puis-je utiliser Stable Diffusion commercialement ?

Oui, les images que vous généréz vous appartiennent et peuvent être utilisees commercialement. C'est un avantage majeur par rapport à Midjourney ou DALL-E.

Stable Diffusion produit-il des images aussi bonnes que Midjourney ?

Stable Diffusion à rattrap Midjourney en qualité, mais le style est different. Midjourney tend vers plus artistique, Stable Diffusion vers plus réaliste. Pour une comparaison, consultez notre guide complet des générateurs gratuits.

J'ai une mauvaise GPU, puis-je quand même utiliser Stable Diffusion ?

Oui, même sur CPU c'est possible, mais c'est lent (2-5 minutes par image). Pour une meilleure expérience, une GPU avec 6GB+ VRAM est recommandée.

Comment puis-je améliorér mes résultats ?

Écrivez des prompts très détaillés et spécifiques. Utilisez un negative prompt complet. Experimentez avec les paramètres. Essayez différents modèles et LoRA. Plus vous pratiquez, meilleur vous devenez.

Qu'est-ce que LoRA et pourquoi l'utiliser ?

LoRA sont des petits fichiers qui modifient un modèle existant pour un style ou concept spécifique. Vous pouvez combiner plusieurs LoRA pour des résultats uniques.

Ou puis-je trouver des modèles et LoRA personnalisés ?

Civitai.com et HuggingFace sont les sources principales. Civitai à une interface dédié, HuggingFace à des centaines de modèles open-source.

Stable Diffusion fonctionne-t-il hors ligne ?

Oui, une fois installe, tout fonctionne hors ligne. Aucune connexion internet requise pour générer des images.

Pret à explorer plus d'outils de génération d'images ?

Découvrez notre guide complet des générateurs d'images gratuits. Lire notre guide des meilleur générateurs d'images IA gratuits et comparez Stable Diffusion avec Midjourney et autres alternatives.