## Introduction Vous avez sûrement entendu parler des images générées par l'intelligence artificielle, ces visuels qui semblent sortir d'un rêve. L'un des outils les plus accessibles pour créer ce type de contenu est **Stable Diffusion**, un modèle de génération d'images open‑source. Contrairement à certains services en ligne qui demandent un abonnement, Stable Diffusion peut être installé et exécuté localement, sur votre propre machine, sans besoin de connaissances avancées en programmation. Dans cet article, nous allons détailler pas à pas comment installer Stable Diffusion sur un ordinateur de bureau ou un portable classique, comment le configurer, puis comment l’utiliser pour transformer du texte en image. L’objectif est de rendre la démarche claire, même pour ceux qui ne sont pas familiers avec les environnements de développement. ## 1. Pré‑requis matériels et logiciels ### 1.1. Configuration minimale - **Processeur** : CPU moderne (Intel i5 ou équivalent) – le modèle fonctionnera, mais sera lent. - **Mémoire RAM** : 8 Go minimum (16 Go recommandé). - **Carte graphique** : GPU compatible CUDA (NVIDIA GTX 1060 ou supérieur). Sans GPU, vous pouvez toujours utiliser la version CPU, mais le temps de génération sera de plusieurs minutes par image. - **Espace disque** : 10 Go libres pour le modèle et les dépendances. ### 1.2. Système d'exploitation Stable Diffusion fonctionne sous Windows 10/11, macOS (avec GPU Apple Silicon) et Linux. L’exemple ci‑dessous utilise Windows, mais les commandes sont sensiblement les mêmes sous Linux. ### 1.3. Logiciels à installer 1. **Anaconda** ou **Miniconda** – un gestionnaire d’environnement Python qui évite les conflits de dépendances. 2. **Git** – pour télécharger les sources depuis GitHub. 3. **Drivers NVIDIA** à jour et le **CUDA Toolkit** (version 11.7 au moment de la rédaction). ## 2. Installation pas à pas ### 2.1. Créer un environnement Conda ```bash # Ouvrez Anaconda Prompt conda create -n sd-env python=3.10 -y conda activate sd-env ``` ### 2.2. Cloner le dépôt officiel ```bash git clone https://github.com/CompVis/stable-diffusion.git cd stable-diffusion ``` ### 2.3. Installer les dépendances Python ```bash pip install -r requirements.txt # Certaines dépendances peuvent nécessiter torch avec le support CUDA pip install torch==2.0.0+cu117 torchvision==0.15.0+cu117 torchaudio==2.0.0 --extra-index-url https://download.pytorch.org/whl/cu117 ``` ### 2.4. Télécharger le modèle pré‑entraîné Le modèle pesant plusieurs gigaoctets n’est pas inclus dans le dépôt. Vous devez vous rendre sur le site officiel (huggingface.co) et accepter la licence, puis télécharger le fichier `sd-v1-4.ckpt`. Placez‑le dans le répertoire `models/ldm/stable-diffusion-v1/`. ### 2.5. Vérifier l’installation ```bash python scripts/txt2img.py --prompt "un chat en costume de samouraï" --plms --n_samples 1 --n_iter 1 --ddim_steps 50 ``` Si tout se passe bien, vous verrez apparaître un fichier image dans le dossier `outputs/`. ## 3. Utilisation basique du script `txt2img` Le script `txt2img.py` accepte plusieurs paramètres utiles : - `--prompt` : texte décrivant l’image voulue. - `--n_samples` : nombre d’images générées par itération. - `--ddim_steps` : nombre d’étapes de diffusion (plus élevé = meilleure qualité mais plus de temps). - `--seed` : valeur numérique pour reproduire exactement la même image. ### Exemple d’une commande complète ```bash python scripts/txt2img.py \ --prompt "une ville futuriste au coucher du soleil, style cyberpunk" \ --plms \ --n_samples 3 \ --n_iter 2 \ --ddim_steps 75 \ --seed 42 ``` Cette commande crée six images (3 samples × 2 iterations) avec un style cyberpunk. Vous pouvez ensuite choisir celle qui vous convient. ## 4. Aller plus loin : l’interface graphique Gradio Pour ceux qui préfèrent une interface visuelle, le projet propose un serveur Gradio : ```bash pip install gradio python scripts/gradio_demo.py ``` Ouvrez ensuite votre navigateur à l’adresse indiquée (généralement `http://127.0.0.1:7860`). Vous disposez d’un champ texte, de curseurs pour les paramètres et d’un bouton « Generate ». C’est idéal pour tester rapidement plusieurs idées sans retaper de commandes. ## 5. Bonnes pratiques et limites - **Respect de la licence** : le modèle est soumis à une licence qui interdit l’usage commercial sans autorisation. - **Contenus sensibles** : évitez de générer des images violentes ou à caractère pornographique. Les filtres intégrés ne sont pas infaillibles. - **Performance** : si votre GPU est déjà sollicité (ex. jeux vidéo), la génération peut ralentir. Vous pouvez limiter la charge en réduisant `ddim_steps` ou en lançant le script en arrière‑plan. - **Gestion de la mémoire** : en cas d’erreur « out of memory », diminuez la résolution (`--W 512 --H 512`) ou le nombre de samples. ## 6. Conclusion / Ouverture Stable Diffusion ouvre la porte à la création d’images générées par IA sur votre propre ordinateur, sans passer par des services en ligne. En maîtrisant les étapes d’installation et en utilisant soit la ligne de commande, soit l’interface Gradio, vous pouvez rapidement transformer des idées textuelles en illustrations concrètes. À mesure que les modèles évoluent, de nouvelles versions (Stable Diffusion 2.0, 3.0…) offrent une meilleure qualité et de nouvelles fonctions comme le contrôle de style ou la génération d’images à partir de croquis. La base que nous avons posée ici reste valable : créer un environnement dédié, télécharger les poids du modèle, puis laisser l’IA faire le reste. N’hésitez pas à partager vos créations, à expérimenter avec les paramètres, et à garder à l’esprit les implications éthiques liées à la génération d’images. L’IA créative est un outil puissant, et comme tout outil, son impact dépend de la manière dont nous l’utilisons. --- *Cet article est destiné à un public non technique souhaitant s’initier à la génération d’images IA. Il ne remplace pas la documentation officielle, mais propose une voie rapide pour démarrer.*