Ce tableau est une liste non exhaustive (2025) d'outils et modèles basés sur des technologies de diffusion comme Stable Diffusion, I2VGen et SVD, incluant des options open source et SaaS pour une accessibilité variée.
| Nom | Site/Projet | Description | Modèles Disponibles | Cohérence Temporelle | Réalisme | Contrôle Caméra | Artefacts | Accessibilité | Type | Type de Techno | Résolution / Max Frames / Temps Gratuit |
|---|---|---|---|---|---|---|---|---|---|---|---|
| Stable Video Diffusion (SVD) | github.com/Stability-AI/generative-models | Modèle de diffusion pour générer des vidéos courtes à partir d'images, basé sur Stable Diffusion, avec une cohérence temporelle élevée pour 14 à 25 frames. | SVD, SVD-XT, SV4D 2.0 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Occasionnels flickering | Gratuit, open source, exécutable localement ou via Hugging Face Spaces. | Projet OSS | SVD | 576x1024 / 25 frames / Illimité (local) |
| Stable Video Diffusion 2.0 (SVD 2.0) | stability.ai/blog/svd-2 | Nouvelle version de SVD avec support jusqu’à 48 frames, meilleure cohérence temporelle, et génération 1080p native. Intègre un scheduler optimisé et un fine-tuning par mouvement. | SVD 2.0, SVD 2.0-XT, SVD 2.0-Ultra | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Parfois "ghosting" sur objets rapides | Gratuit, open source (via Hugging Face et GitHub) | Projet OSS | SVD | 1080p / 48 frames / Illimité (local) |
| I2VGen-XL | github.com/ali-vilab/VGen | Modèle en cascade de diffusion pour la synthèse vidéo haute qualité à partir d'images, avec une bonne généralisation sur divers types de données. | I2VGen-XL (3.7B paramètres) | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Morphing mineur | Gratuit, open source, via Hugging Face ou localement. | Projet OSS | I2VGen | 512x512 / 16 frames / Illimité (local) |
| AnimateDiff | github.com/guoyww/AnimateDiff | Extension pour animer des images statiques en vidéos via Stable Diffusion et ComfyUI, en ajoutant des modules de mouvement. | AnimateDiff v1, v2, v3 ; Motion Modules (divers) | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Flickering sur mouvements rapides | Gratuit, open source, local via ComfyUI. | Projet OSS | Stable Diffusion | 512x512 / 16-32 frames / Illimité (local) |
| ModelScope i2vgen-XL | huggingface.co/damo-vilab | Pipeline image/texte vers vidéo open source, développé par DAMO Academy, pour une génération fluide et cohérente. | i2vgen-XL | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Distorsion légère | Gratuit, open source, via studios ou local. | Projet OSS | I2VGen | 256x256 / 49 frames / Illimité (local) |
| Runway Gen-3 Alpha | runwayml.com | Plateforme SaaS pour transformer images en vidéos avec support texte et image, idéale pour l'usage créatif. | Gen-3 Alpha, Gen-4 Turbo | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Minimal | Essai gratuit (125 crédits), plans payants à partir de 15$/mois. | SaaS payant | Stable Diffusion | 1080p / 16s / 4s (125 crédits) |
| Runway Gen-4 Turbo | runwayml.com/gen4 | Successeur de Gen-3 Alpha, avec génération vidéo en temps réel (moins de 5s), support caméra 3D, et fidélité photoréaliste accrue. Compatible image + texte + audio. | Gen-4 Turbo | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Presque aucun | Essai gratuit (125 crédits), abonnements à partir de $15/mois | SaaS payant | Stable Diffusion | 1280x720 / 10s / 10s (125 crédits) |
| Pika Labs | pika.art | Outil "idea-to-video" avec mode image-to-video, accessible via web pour une génération rapide. | Pika 1.0, Pika 1.5 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Sur-stylisation | Essais gratuits périodiques, crédits limités. | SaaS | Stable Diffusion | 1080p / 5s / 3s (essai) |
| Pika 2.0 | pika.art | Nouvelle architecture avec diffusion temporelle jointe et support audio-to-motion. Permet d’animer une image avec une piste audio (ex: lip sync). | Pika 2.0, Pika 2.0 Pro | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Sur-stylisation | Accès anticipé gratuit, version Pro payante | SaaS | Stable Diffusion | 1080p / 10s / Limité (accès anticipé) |
| Luma Dream Machine | lumalabs.ai/dream-machine | Générateur image-to-video rapide, produisant des clips de 5 secondes avec mouvements réalistes. | Dream Machine v1, v2 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Distorsion occasionnelle | Accès gratuit avec essais, plans payants. | SaaS | Stable Diffusion | 720p / 120 frames / 5s (essai) |
| Luma Dream Machine v3 | lumalabs.ai/dream-machine | Nouvelle génération avec "motion brush", génération 4K, et latence <3s. Supporte l’upload d’image + prompt + référence de mouvement. | Dream Machine v3 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Léger flou | Accès gratuit limité (5 vidéos/jour), plans Pro à $24/mois | SaaS | Stable Diffusion | 4K / 120 frames / 5s (5 vidéos/jour) |
| Krea AI Motion | krea.ai | Outil pour transformer images en vidéos en transférant du mouvement, avec fonctions gratuites pour Motion/Video. | Krea Motion, Video Leap | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Morphing modéré | Fonctions gratuites, premium payant. | SaaS | Stable Diffusion | 1080p / 5s / 3s (gratuit) |
| Pixverse AI | app.pixverse.ai | Plateforme pour générer vidéos à partir d'images et texte, avec interface web simple. | Pixverse v1, v2 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Flickering fréquent | Crédits gratuits, options payantes. | SaaS | Stable Diffusion | 720p / 5s / 3s (crédits gratuits) |
| Vidnoz AI | vidnoz.com | Outil IA pour convertir images en vidéos, avec support pour divers formats et effets. | Vidnoz Image-to-Video | ⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Distorsion visible | Gratuit avec limites, premium payant. | SaaS | Stable Diffusion | 1080p / 4s / 1 vidéo/jour |
| Hailuo AI | hailuoai.video | Générateur image-to-video avec focus sur la qualité HD et mouvements naturels. | Hailuo MiniMax | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Léger flou | Essais gratuits, API payante. | SaaS | Stable Diffusion | 720p / 5s / 3-5 vidéos/jour |
| Kling AI | kling.kuaishou.com | Modèle vidéo IA chinois pour image-to-video, avec haute fidélité et contrôle caméra. | Kling 1.0, 1.5 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Léger flou en arrière-plan | Crédits gratuits limités, payant. | SaaS | Stable Diffusion | 1080p / 5s / 3-4 vidéos/jour |
| Kling 2.0 | kling.kuaishou.com | Version 2025 de la plateforme chinoise : résolution 4K, contrôle caméra avancé (dolly, zoom, rotation), et génération de 8s à 12s. | Kling 2.0, Kling 2.0 Pro | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Léger flou en arrière-plan | Crédits gratuits limités, API payante | SaaS | Stable Diffusion | 4K / 10s / 5s (166 crédits gratuits) |
| Wan 2.2 A14B | huggingface.co/Wan-AI | Modèle open source avancé pour image-to-video avec architecture MoE pour une meilleure esthétique et mouvement. | Wan 2.2 I2V A14B | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Flou temporel mineur | Gratuit, open source. | Projet OSS | SVD | 1024x576 / 25 frames / Illimité (local) |
| Wan 3.0 MoE | huggingface.co/Wan-AI/Wan3-I2V-MoE | Modèle sparse (Mixture of Experts) avec 12B paramètres effectifs, spécialisé en mouvements naturels (eau, feu, cheveux). | Wan 3.0 I2V MoE | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Moins bon sur visages | Gratuit, open source | Projet OSS | SVD | 1080p / 120 frames / Illimité (local) |
| HunyuanVideo | huggingface.co/Tencent-Hunyuan | Modèle open source de Tencent pour vidéo à partir d'images, étendu en 2025 avec capacités i2v. | HunyuanVideo I2V | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Ghosting modéré | Gratuit, open source. | Projet OSS | I2VGen | 720p / 5s / Illimité (local) |
| HunyuanVideo I2V v2 | huggingface.co/Tencent-Hunyuan | Mise à jour majeure du modèle Tencent avec support multi-view, interpolation temporelle améliorée et génération jusqu’à 60 fps. | HunyuanVideo-I2V-v2 | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Minimal | Gratuit, open source | Projet OSS | I2VGen | 720p / 60 fps / Illimité (local) |
| Hugging Face Spaces (SVD Apps) | huggingface.co/spaces | Espaces hébergés pour tester SVD et autres modèles i2v, avec API Inference gratuite. | Divers SVD, I2VGen apps | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Varie par app | Palier gratuit API, hébergé. | Plateforme hébergée | SVD | Varie / 25 frames / Limité API gratuite |
| Meta Create/Vibes | ai.meta.com | Outil gratuit de Meta pour image-to-video avec lipsync et formats 16:9/9:16. | Vibes, Create | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Minimal | Illimité gratuit, sans watermark. | SaaS gratuit | Stable Diffusion | 1080p / 10s / Illimité |
| Meta Create v2 (Vibes+) | ai.meta.com/create | Mise à jour de l’outil gratuit de Meta : support image-to-video avec fond transparent, effets de caméra, et export 1080p sans watermark. | Vibes+, Create v2 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Minimal | Gratuit, illimité, sans watermark | SaaS gratuit | Stable Diffusion | 1080p / 10s / Illimité |
| Grok Image-to-Video | grok.x.ai | Fonctionnalité xAI pour générer vidéos à partir d'images avec lipsync, intégrable via API. | Grok Video | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Distorsion API | Gratuit via API xAI, routes fast. | API/LLM | Stable Diffusion | 720p / 5s / Limité API gratuite |
| Haiper | haiper.ai | Plateforme AI pour création vidéo à partir d'images, focalisée sur l'expression créative. | Haiper I2V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Modéré | Essais gratuits, payant. | SaaS | Stable Diffusion | 1080p / 8s / 2 vidéos/jour |
| Moonvalley | moonvalley.ai | Outil pour image-to-video avec effets avancés, bien que moins pratique pour certains usages. | Moonvalley v1 | ⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Élevé | Gratuit limité, payant. | SaaS | Stable Diffusion | 720p / 5s / 1 vidéo/jour |
| Vheer | vheer.com | Outil web pour animer images en vidéos avec contrôle caméra et mouvements. | Vheer Motion | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Minimal | Gratuit illimité, sans watermark. | SaaS gratuit | Stable Diffusion | 1080p / 5-10s / Illimité |
| Qwen Video | qwen.ai | Modèle pour text-to-video extensible à image-to-video, avec prompts efficaces. | Qwen 2.5 Video | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Ghosting | Open source gratuit. | Projet OSS | Stable Diffusion | 720p / 16 frames / Illimité (local) |
| Qwen Video 2.5 | qwen.ai/models/qwen-video | Version améliorée avec support image initiale, génération 720p/30fps, et intégration directe dans Tongyi Wanxiang. | Qwen Video 2.5 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Minimal | Open source (Apache 2.0), via ModelScope | Projet OSS | Stable Diffusion | 720p / 30 fps / Illimité (local) |
| CogVideoX | github.com/THUDM/CogVideo | Modèle open source de génération vidéo à partir de texte ou d’images, développé par Zhipu AI, avec support multi-frame. | CogVideoX-2b, CogVideoX-5b | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Flickering mineur | Gratuit, open source, via Hugging Face | Projet OSS | SVD | 480p / 49 frames / Illimité (local) |
| Open-Sora | github.com/hpcaitech/Open-Sora | Initiative open source pour reproduire Sora de OpenAI, avec support image-to-video et text-to-video. | Open-Sora v1.0, v1.1 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Inconsistant | Gratuit, open source | Projet OSS | Stable Diffusion | 768x768 / 128 frames / Illimité (local) |
| Open-Sora Plan v2 | github.com/hpcaitech/Open-Sora-Plan | Évolution d’Open-Sora avec support longue durée (jusqu’à 30s), meilleure gestion des objets en mouvement, et fine-tuning par dataset personnalisé. | Open-Sora-Plan v2.0 | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Modéré sur longue durée | Gratuit, open source | Projet OSS | Stable Diffusion | 720p / 30s / Illimité (local) |
| Stable Video 3D | stability.ai/blog/stable-video-3d | Extension de SVD pour générer des vues 3D à partir d’une seule image, compatible NeRF. | SV3D, SV3D-u | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Déformation 3D | Gratuit via Hugging Face | Projet OSS | SVD | 576x1024 / 25 frames / Illimité (local) |
| Emu Video | emu-video.metademolab.com | Modèle de Meta pour génération vidéo à partir d’images et texte, avec haute résolution. | Emu Video (non open) | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Recherche limité | Accès restreint, recherche | Recherche | Stable Diffusion | 720p / 2s / N/A (recherche) |
| Phenaki | phenaki.video | Modèle de Google pour vidéo longue à partir de texte, adaptable à image-to-video. | Phenaki (non open) | ⭐⭐ | ⭐⭐ | ⭐⭐ | Élevé | Non public | Recherche | I2VGen | 480p / 10s+ / N/A |
| Make-A-Video | ai.facebook.com/blog/make-a-video | Ancêtre d’Emu, par Meta, pour génération vidéo à partir de prompts textuels ou images. | Make-A-Video | ⭐⭐ | ⭐⭐ | ⭐ | N/A | Non open | Recherche | Stable Diffusion | 256x256 / 4s / N/A |
| VideoCrafter | github.com/VideoCrafter/VideoCrafter2 | Suite open source pour génération vidéo haute qualité à partir de texte ou d’images fixes. | VideoCrafter2 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Modéré | Gratuit, open source | Projet OSS | Stable Diffusion | 1024x576 / 49 frames / Illimité (local) |
| LaVie | github.com/Vchitect/LaVie | Modèle open source pour génération vidéo réaliste à partir de texte ou d’images. | LaVie-base, LaVie-large | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Flickering | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| Tune-A-Video | github.com/showlab/Tune-A-Video | Méthode fine-tuning pour adapter Stable Diffusion à la génération vidéo personnalisée. | Tune-A-Video | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Dépend du fine-tuning | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| Text2Video-Zero | github.com/Picsart-AI-Research/Text2Video-Zero | Génération vidéo sans entraînement, à partir de SD, compatible avec image initiale. | Text2Video-Zero | ⭐⭐ | ⭐⭐ | ⭐ | Élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 25 frames / Illimité (local) |
| ZeroScope | huggingface.co/cerspense/zeroscope_v2_576w | Modèle léger open source pour génération vidéo à partir de texte (adaptable à i2v). | ZeroScope v2 | ⭐⭐ | ⭐⭐ | ⭐ | Fréquent | Gratuit, open source | Projet OSS | Stable Diffusion | 1024x576 / 24 frames / Illimité (local) |
| ModelScope Text-to-Video | modelscope.cn/models/damo | Suite vidéo de DAMO Academy, incluant des pipelines i2v et t2v. | DAMO T2V, I2VGen-XL | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Modéré | Gratuit, open source | Projet OSS | I2VGen | 256x256 / 49 frames / Illimité (local) |
| Stable Diffusion Video (SDV) | github.com/nateraw/stable-diffusion-videos | Bibliothèque pour générer des vidéos à partir de prompts ou d’images avec interpolation. | SDV v1 | ⭐⭐ | ⭐⭐ | ⭐ | Élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| Deforum | github.com/deforum-art/deforum-stable-diffusion | Animation de prompts SD via interpolation, compatible avec image initiale. | Deforum + SD | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Interpolation instable | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 100+ frames / Illimité (local) |
| AnimateAnyone | github.com/IDEA-Research/AnimateAnyone | Génération vidéo à partir d’image + pose, très utilisé pour avatar humain. | AnimateAnyone | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Pose limitée | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| MagicAnimate | github.com/magic-research/magic-animate | Animation d’images humaines à partir de séquences de poses. | MagicAnimate | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Distorsion humaine | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 33 frames / Illimité (local) |
| MotionCtrl | github.com/Tencent/MotionCtrl | Contrôle explicite du mouvement dans les vidéos générées à partir d’images. | MotionCtrl | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Mouvement forcé | Gratuit, open source | Projet OSS | SVD | 576x1024 / 25 frames / Illimité (local) |
| VideoReDo | github.com/VideoReDo-Lab/VideoReDo | Amélioration et réinterprétation de vidéos existantes via diffusion. | VideoReDo | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Réinterprétation variable | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| DynamiCrafter | github.com/Tencent/DynamiCrafter | Génération vidéo à partir d’image + prompt, avec interpolation temporelle avancée. | DynamiCrafter | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Interpolation limitée | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 17 frames / Illimité (local) |
| Rerender | github.com/RerenderAI/Rerender | Génération vidéo cohérente à partir d’images fixes et prompts. | Rerender A | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Cohérence variable | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| SVD-XT Turbo | huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt | Version accélérée de SVD-XT pour génération rapide. | SVD-XT Turbo | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Accéléré cause flou | Gratuit, open source | Projet OSS | SVD | 576x1024 / 25 frames / Illimité (local) |
| Kandinsky Video | huggingface.co/kandinsky-community | Extension vidéo du modèle Kandinsky pour image-to-video. | Kandinsky-V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Artistique élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| CogView3-Video | github.com/THUDM/CogView3 | Composant vidéo de CogView3, supporte i2v via diffusion. | CogView3-V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Modéré | Gratuit, open source | Projet OSS | SVD | 480p / 6s / Illimité (local) |
| StableCascade Video | github.com/Stability-AI/StableCascade | Adaptation vidéo de Stable Cascade, compatible i2v. | StableCascade-V | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Cascade flou | Gratuit, open source | Projet OSS | Stable Diffusion | 1024x1024 / 16 frames / Illimité (local) |
| VideoLDM | github.com/CompVis/VideoLDM | Génération vidéo via Latent Diffusion Models, base pour plusieurs projets. | VideoLDM | ⭐⭐ | ⭐⭐ | ⭐ | Latent élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 256x256 / 16 frames / Illimité (local) |
| Gen-1 (Runway) | runwayml.com/gen1 | Ancien modèle Runway pour style transfer vidéo à partir d’image. | Gen-1 | ⭐⭐ | ⭐⭐ | ⭐ | Déprécié | Payant (déprécié) | SaaS payant | Stable Diffusion | 720p / 4s / N/A (payant) |
| Gen-2 (Runway) | runwayml.com/gen2 | Prédécesseur de Gen-3, supporte image-to-video. | Gen-2 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Modéré | Payant | SaaS payant | Stable Diffusion | 1080p / 16s / Essai limité |
| Stable Video Ultra | stability.ai | Version améliorée de SVD non encore publiée (rumorée). | SVD-Ultra | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | N/A | Non disponible | Recherche | SVD | N/A / N/A / N/A |
| LTX Studio | ltx.studio | Plateforme web pour générer des vidéos à partir d’images avec contrôle caméra. | LTX-I2V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Modéré | Gratuit limité, payant | SaaS | Stable Diffusion | 720p / 5s / Limité gratuit |
| Infinite Nature | infinite-nature.github.io | Génération de vidéos naturelles à partir d’images paysages. | Infinite Nature | ⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐ | Paysage instable | Recherche | Recherche | Stable Diffusion | N/A / N/A / N/A |
| NeRFFaceVideo | github.com/NeRFFaceVideo/NeRFFaceVideo | Génération vidéo de visage à partir d’image unique. | NeRFFaceVideo | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Visage déformé | Gratuit, open source | Projet OSS | SVD | 256x256 / 100 frames / Illimité (local) |
| Vid2Vid | nvlabs.github.io/vid2vid | Traduction vidéo à vidéo, adaptable à i2v via image initiale. | Vid2Vid | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Traduction variable | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / Varie / Illimité (local) |
| MoDi | github.com/microsoft/MoDi | Modèle Microsoft pour génération vidéo multimodale (texte + image). | MoDi | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Restreint | Accès restreint | Recherche | I2VGen | N/A / N/A / N/A |
| Imagen Video | imagen.research.google/video | Modèle Google pour vidéo haute résolution, non open. | Imagen Video | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | N/A | Non public | Recherche | Stable Diffusion | 1024x1024 / 2s / N/A |
| Vidu | vidu.ai | Plateforme chinoise concurrente de Sora, supporte i2v. | Vidu 1.0 | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐ | Limité | Accès limité | SaaS | Stable Diffusion | 720p / 4s / 80 crédits/jour |
| Zeroscope XL | huggingface.co/cerspense/zeroscope_v2_XL | Version XL de ZeroScope pour résolution supérieure. | ZeroScope XL | ⭐⭐⭐ | ⭐⭐ | ⭐ | Élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 1024x576 / 24 frames / Illimité (local) |
| AnimateDiff-Light | github.com/Artiprocher/AnimateDiff-Light | Version allégée d’AnimateDiff pour machines modestes. | AnimateDiff-Light | ⭐⭐ | ⭐⭐ | ⭐⭐ | Allégé cause qualité basse | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| SVD Community Models | civitai.com | Modèles fine-tunés de SVD partagés par la communauté. | SVD-FT, SVD-Realism | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Varie par modèle | Gratuit | Communauté | SVD | 576x1024 / 25 frames / Illimité (local) |
| ComfyUI-I2V Nodes | github.com/comfyanonymous/ComfyUI | Nœuds pour intégrer SVD, AnimateDiff, etc. dans ComfyUI. | Plugins I2V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Dépend du node | Gratuit, open source | Outil OSS | Stable Diffusion | Varie / Varie / Illimité (local) |
| Stable Diffusion WebUI I2V | github.com/AUTOMATIC1111/stable-diffusion-webui | Extensions pour vidéo dans WebUI (ex: SVD plugin). | SVD plugin | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Plugin variable | Gratuit, open source | Outil OSS | Stable Diffusion | 512x512 / 25 frames / Illimité (local) |
| VideoFusion | github.com/VideoFusion/VideoFusion | Fusion de plusieurs images en vidéo cohérente. | VideoFusion | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Fusion instable | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| Dreamix | dreamix-video.github.io | Génération vidéo à partir d’image + motion prompt. | Dreamix | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Motion variable | Gratuit, open source | Projet OSS | Stable Diffusion | 256x256 / 16 frames / Illimité (local) |
| CtrlVideo | github.com/ctrlvideo/ctrlvideo | Contrôle spatial et temporel dans la génération vidéo. | CtrlVideo | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Contrôle forcé | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 16 frames / Illimité (local) |
| RAVE | github.com/rave-video/rave | Génération vidéo rapide avec contrôle de mouvement. | RAVE | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Rapide cause erreurs | Gratuit, open source | Projet OSS | SVD | 576x1024 / 14 frames / Illimité (local) |
| T2V-Turbo | github.com/T2V-Turbo/T2V-Turbo | Version accélérée de text-to-video, adaptable à i2v. | T2V-Turbo | ⭐⭐ | ⭐⭐ | ⭐ | Accéléré élevé | Gratuit, open source | Projet OSS | Stable Diffusion | 512x512 / 24 frames / Illimité (local) |
| PixArt Video | pixart-alpha.github.io | Extension vidéo du modèle PixArt, supporte i2v. | PixArt-V | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Artistique | Gratuit, open source | Projet OSS | Stable Diffusion | 1024x1024 / 16 frames / Illimité (local) |
| Stable Video 4D | github.com/Stability-AI/SV4D | Génération de vidéos 4D (temps + profondeur) à partir d’images. | SV4D 2.0 | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | 4D déformation | Gratuit, open source | Projet OSS | SVD | 576x1024 / 25 frames / Illimité (local) |
| Vid2Dream | huggingface.co/spaces/vid2dream | Espace Hugging Face pour transformer vidéos en rêves animés. | Vid2Dream | ⭐⭐ | ⭐⭐ | ⭐ | Rêve instable | Gratuit | Plateforme hébergée | Stable Diffusion | 512x512 / 16 frames / Limité API |
| MotionBrush | motionbrush.com | Outil pour animer des zones spécifiques d’une image. | MotionBrush | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐ | Zone limitée | Gratuit limité | SaaS | Stable Diffusion | 720p / 5s / Limité gratuit |
| DeepMotion Animate 3D | deepmotion.com/animate-3d | Génération vidéo 3D à partir d’images 2D. | Animate 3D | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | 3D conversion | Freemium | SaaS | Stable Diffusion | 720p / 10s / Freemium limité |
| Résultats : 65 / 65 | |||||||||||