Texte AI au discours
Convertissez le texte en langage naturel avec des modèles d'IA open-source. Gratuit à utiliser, aucun compte n'est requis.
Enveloppez votre texte dans des balises SSML pour un contrôle précis :
<speak><prosody rate="slow">Slow speech</prosody></speak>
Ajouter des marqueurs d'émotion pour influencer la livraison (le support du modèle varie):
Définir les prononciations personnalisées (mot = prononciation) :
Détails du modèle
GPT-SoVITS
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
| Développeur & #160;: | RVC-Boss |
| Licence & #160;: | MIT |
| Régime | Slow |
| Qualité: | |
| langues | 4 langues |
| VRAM | 6GB |
| Clonage de la voix | Appui |
Conseils pour de meilleurs résultats
- Utiliser la ponctuation appropriée pour les pauses naturelles et l'intonation
- Épelez les nombres et les abréviations pour une prononciation plus claire
- Ajouter des virgules pour créer de courtes pauses entre les phrases
- Utilisez l'ellipsie (...) pour des pauses dramatiques plus longues
- Essayez Kokoro ou CosyVoice 2 pour les résultats les plus naturels
- Utiliser Dia pour la boîte de dialogue multi haut-parleurs et le contenu podcast
Utilisation des caractères
| Niveau | Coût par 1 000 ombles |
|---|---|
| Gratuit | 0 crédits (limités) |
| Norme | 2 crédits / 1 000 caractères |
| Prime | 4 crédits / 1 000 caractères |
Comment fonctionne le texte d'IA pour parler
Générer des voix-overs de qualité professionnelle en trois étapes simples. Aucune connaissance technique requise.
Saisissez votre texte
Tapez, collez ou téléchargez le texte que vous souhaitez convertir en parole. Il supporte jusqu'à 5 000 caractères par génération pour les utilisateurs connectés. Utilisez du texte simple ou ajoutez des balises SSML pour un contrôle avancé de la prononciation, des pauses et de l'accent.
Choisissez Modèle & Voix
Choisissez une voix qui correspond à votre contenu, choisissez votre langue cible, ajustez la vitesse de lecture de 0,5x à 2,0x et sélectionnez votre format de sortie préféré (MP3, WAV, OGG ou FLAC).
Générer et télécharger
Cliquez sur Générer et votre audio est prêt en quelques secondes. Prévisualiser avec le lecteur intégré, télécharger dans le format choisi, ou copier un lien partageable. Utilisez l'API pour le traitement par lots et l'intégration dans votre workflow.
Text to Speech Use Cases
Le text-to-speech de l'IA transforme la façon dont les gens créent, consomment et interagissent avec le contenu audio dans des dizaines d'industries.
Tous les modèles texte à discours
Spécifications détaillées pour chaque modèle d'IA disponible sur TTS.ai. Comparez la qualité, la vitesse, le support linguistique et les fonctionnalités pour trouver le modèle parfait pour votre projet.
Kokoro
Free
Kokoro est un modèle text-to-speech de 82 millions de paramètres qui frappe bien au-dessus de sa classe de poids. Malgré sa petite taille, il produit un langage remarquablement naturel et expressif. Kokoro prend en charge plusieurs langues dont l'anglais, le japonais, le chinois et le coréen avec une variété de voix expressives.
Hexgrad
Apache 2.0
Fast
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
1.5GB
Numéro
Gratuit
Piper
Free
Piper est un moteur text-to-speech léger développé par Rhasspy qui utilise les architectures VITS et larynx. Il fonctionne entièrement sur CPU, ce qui le rend idéal pour les périphériques de bord, la domotique et les applications nécessitant TTS hors ligne. Avec plus de 100 voix dans plus de 30 langues, Piper offre un langage sonore naturel à des vitesses en temps réel même sur un Raspberry Pi 4.
Rhasspy
MIT
Fast
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
0 (CPU only)
Numéro
Gratuit
VITS
Free
VITS (Variational Inférence with adversarial learning for de bout en bout Text-to-Speech) est une méthode TTS parallèle de bout en bout qui génère plus de sonorisation naturelle que les modèles en deux étapes actuels. Il adopte l'inférence variationnelle augmentée avec des flux de normalisation et un processus de formation contradictoire, permettant une amélioration significative de la naturalité.
Jaehyeon Kim et al.
MIT
Fast
en, zh, ja, ko
1GB
Numéro
Gratuit
MeloTTS
Free
MeloTTS by MyShell.ai est une bibliothèque multilingue TTS qui soutient l'anglais (américain, britannique, indien, australien), l'espagnol, le français, le chinois, le japonais et le coréen. Il est extrêmement rapide, le traitement du texte à une vitesse presque en temps réel sur CPU seul. MeloTTS est conçu pour l'utilisation de la production et supporte à la fois l'inférence CPU et GPU.
MyShell.ai
MIT
Fast
en, es, fr, zh, ja, ko
0.5GB (GPU optional)
Numéro
Gratuit
Bark
Standard
Bark by Suno est un modèle text-to-audio basé sur un transformateur qui peut générer une parole très réaliste, multilingue ainsi que d'autres audio comme la musique, le bruit de fond et les effets sonores. Il peut produire des communications non verbales comme rire, soupirer et pleurer. Bark supporte plus de 100 presets de haut-parleurs et 13+ langues.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
5GB
Numéro
2x
Bark Small
Standard
Bark Small est une version distillée du modèle Bark qui échange une certaine qualité audio pour des vitesses d'inférence considérablement plus rapides et des exigences de mémoire plus faibles. Il conserve la capacité de Bark à générer la parole avec des émotions, des rires et plusieurs langues.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
2GB
Numéro
2x
CosyVoice 2
Standard
CosyVoice 2 du Tongyi Lab d'Alibaba atteint une qualité de parole comparable à l'homme avec une latence extrêmement faible, ce qui le rend idéal pour les applications en temps réel. Il utilise une approche de quantification scalaire finie pour la synthèse en streaming et prend en charge le clonage vocal zéro-shot, la synthèse cross-lingual et le contrôle des émotions à grain fin.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
4GB
Oui
2x
Dia TTS
Standard
Dia by Nari Labs est un modèle text-to-speech de 1.6B conçu spécifiquement pour générer le dialogue multi-parleurs. Il peut produire des conversations sonores naturelles entre deux haut-parleurs avec des prises de vues appropriées, la prosodie, et l'expression émotionnelle. Dia est parfait pour créer des contenus de style podcast, des dialogues audiobooks, et l'IA conversationnelle interactive.
Nari Labs
Apache 2.0
Medium
en
4GB
Numéro
2x
Parler TTS
Standard
Parler TTS est un modèle texte-à-discours qui utilise des descriptions vocales en langage naturel pour contrôler la parole générée. Au lieu de sélectionner à partir de voix prédéfinies, vous décrivez la voix que vous voulez (par exemple, «une voix féminine chaude avec un léger accent britannique, parlant lentement et clairement») et Parler génère une correspondance vocale avec cette description.
Hugging Face
Apache 2.0
Medium
en
4GB
Numéro
2x
GLM-TTS
Standard
GLM-TTS de Zhipu AI est un système texte-à-discours construit sur l'architecture Llama avec un écoulement correspondant. Il atteint le taux d'erreur de caractères le plus bas parmi les modèles TTS open-source, ce qui signifie qu'il produit la prononciation la plus précise. GLM-TTS prend en charge l'anglais et le chinois avec le clonage vocal de 3-10 échantillons audio secondes.
Zhipu AI
GLM-4 License
Medium
en, zh
4GB
Oui
2x
IndexTTS-2
Standard
IndexTTS-2 est un système texto-speech avancé qui excelle à la synthèse vocale zéro-shot avec un contrôle de l'émotion fine-grain. Il peut générer la parole avec des tons émotionnels spécifiques comme heureux, triste, en colère, ou craintif sans exiger des données d'entraînement spécifiques à l'émotion. Le modèle utilise des vecteurs d'émotion pour contrôler précisément l'expression émotionnelle de la parole générée.
Index Team
Bilibili Model License
Medium
en, zh
4GB
Oui
2x
Spark TTS
Standard
Spark TTS de SparkAudio est un modèle text-to-speech qui combine le clonage de la voix avec une émotion contrôlable et un style de parole. En utilisant seulement 5 secondes d'audio de référence, il peut cloner une voix puis générer une parole avec des émotions, des vitesses et des styles différents tout en conservant l'identité vocale clonée.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
4GB
Oui
2x
GPT-SoVITS
Standard
GPT-SoVITS combine la modélisation de langage de style GPT avec SoVITS (Sing Voice Inference via Translation and Synthesis) pour le clonage de voix puissant à faible résolution. Avec aussi peu que 5 secondes d'audio de référence, il peut cloner avec précision une voix et générer de nouveaux discours tout en préservant les caractéristiques uniques de l'orateur. Il excelle à la fois à parler et à chanter la synthèse vocale.
RVC-Boss
MIT
Slow
en, zh, ja, ko
6GB
Oui
2x
Orpheus
Standard
Orphée est un modèle à grande échelle texte-à-discours qui atteint l'expression émotionnelle au niveau humain. Formé sur plus de 100 000 heures de diverses données de la parole, il excelle dans la génération de la parole avec des émotions naturelles, l'accent, et les styles de parole. Orphée peut produire une parole qui est pratiquement indistinguable des enregistrements humains.
Canopy Labs
Llama 3.2 Community
Medium
en
4GB
Numéro
2x
Chatterbox
Premium
Chatterbox by Resemble AI est un modèle de clonage vocal à capture nulle de pointe. Il peut reproduire n'importe quelle voix à partir d'un seul échantillon audio avec une précision remarquable, captant non seulement le timbre, mais aussi le style de parole et les nuances émotionnelles. Chatterbox dispose également d'un contrôle de l'émotion à grain fin, vous permettant d'ajuster le ton émotionnel du discours généré indépendamment de l'identité vocale.
Resemble AI
MIT
Medium
en
4GB
Oui
4x
Tortoise TTS
Premium
Tortoise TTS est un système autorégressif de texte à parole multivoix qui priorise la qualité audio sur la vitesse. Il utilise l'architecture inspirée de DALL-E pour générer une parole très naturelle avec une excellente prosody et une similarité de haut-parleur. Bien que plus lent que de nombreuses alternatives, Tortoise produit une partie de la parole synthétique la plus réaliste disponible dans l'écosystème open-source.
James Betker
Apache 2.0
Slow
en
8GB
Oui
4x
StyleTTS 2
Premium
StyleTTS 2 réalise une synthèse TTS à l'échelle humaine en combinant diffusion de style et formation contradictoire à l'aide de modèles de langage de langage de grande taille. Il génère la parole la plus naturelle parmi les modèles de langage mono-parleur, rivalisant avec les enregistrements humains. StyleTTS 2 utilise la modélisation de style basée sur la diffusion pour capturer toute la gamme de variations de la parole humaine.
Columbia University
MIT
Medium
en
4GB
Numéro
4x
OpenVoice
Premium
OpenVoice by MyShell.ai permet le clonage instantané de la voix avec contrôle granulaire sur le style vocal, l'émotion, l'accent, le rythme, les pauses et l'intonation. Il peut cloner une voix à partir d'un court clip audio et générer la parole en plusieurs langues tout en conservant l'identité de l'enceinte. OpenVoice fonctionne également comme un convertisseur vocal, permettant la transformation vocale en temps réel.
MyShell.ai / MIT
MIT
Medium
en, zh, ja, ko, fr, de, es, it
4GB
Oui
4x
Qwen3 TTS
Standard
Qwen3-TTS est un modèle de texte à parole de 1,7 milliard de paramètres de l'équipe Qwen d'Alibaba. Il prend en charge trois modes : voix prédéfinies avec contrôle d'émotion (9 haut-parleurs), clonage de la voix à partir de seulement 3 secondes d'audio, et un mode de conception de la voix unique où vous décrivez la voix que vous voulez en langage naturel.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
7GB
Oui
2x
Sesame CSM
Premium
Sésame CSM (Conversational Speech Model) est un modèle de 1 milliard de paramètres conçu spécifiquement pour générer la parole conversationnelle. Il modélise les modèles naturels de conversation humaine, y compris le timing tour à tour, les réponses des canaux arrière, les réactions émotionnelles et le flux conversationnel.
Sesame
Apache 2.0
Slow
en
8GB
Numéro
4x
Chatterbox Turbo
Standard
Chatterbox Turbo by Resemble AI est une mise à jour de 350M vers Chatterbox, fournissant jusqu'à 6x vitesse en temps réel avec sous-200ms latence. Il prend en charge les balises paralinguistiques comme [laugh], [toux] et [chuckle] directement dans le texte. Inclut le filigrane Perth sur tous les audios générés pour le suivi de provenance.
Resemble AI
MIT
Fast
en
2GB
Oui
2x
Zonos
Standard
Zonos v0.1 de Zyphra est un modèle de paramètre 1.6B doté d'un contrôle d'émotion à grain fin avec des curseurs pour le bonheur, la colère, la tristesse, la peur et la surprise. Il offre à la fois une variante Transformer et un nouveau modèle SSM (state-space).
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
6GB
Oui
2x
Dia 2
Standard
Dia2 de Nari Labs est une première mise à niveau en streaming vers Dia, disponible en variantes de paramètres 1B et 2B. Il commence à synthétiser l'audio des premiers jetons, ce qui le rend idéal pour les agents vocaux en temps réel et les pipelines de parole à parole. Supporte le dialogue multi-parleurs avec des balises [S1]/[S2] et des indices paralinguistiques comme (rires), (toux).
Nari Labs
Apache 2.0
Fast
en
4GB
Numéro
2x
VoxCPM
Standard
VoxCPM 1.5 d'OpenBMB est un nouveau modèle TTS sans tokenizer qui fonctionne dans l'espace continu plutôt que des tokens discrets. Il produit une haute fidélité audio 44.1kHz, prend en charge le clonage vocal zéro-shot à partir de 3-10 secondes, et maintient la cohérence entre les paragraphes.
OpenBMB
Apache 2.0
Fast
en, zh
4GB
Oui
2x
OuteTTS
Free
OuteTTS étend les grands modèles de langage avec des capacités de texte à parole tout en préservant l'architecture originale. Il prend en charge plusieurs backends tels que lama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, et même inférence de navigateur via Transformers.js.
OuteAI
Apache 2.0
Fast
en
2GB
Oui
Gratuit
TADA
Standard
TADA (Text-Acoustic Dual Alignement) by Hume AI est un modèle TTS révolutionnaire qui élimine les hallucinations grâce à une nouvelle architecture de double alignement construite sur Llama 3.2. Disponible en versions 1B (anglais) et 3B (multilingue), TADA obtient un RTF de 0,09 — 5x plus rapide que les modèles TTS comparables basés sur LLM. Il supporte jusqu'à 700 secondes de contexte audio et produit un discours émotionnellement expressif avec zéro hallucination sur des repères standard.
Hume AI
MIT
Fast
en
5GB
Numéro
2x
VibeVoice
Standard
VibeVoice by Microsoft propose deux variantes : un modèle 1.5B pour le contenu de forme longue (jusqu'à 90 minutes, 4 haut-parleurs) et un modèle Realtime 0.5B pour le streaming avec ~200ms première latence audio. La variante 1.5B excelle dans les podcasts et les livres audio avec cohérence haut-parleur sur les longs passages.
Microsoft
MIT
Fast
en, zh
4GB
Numéro
2x
Pocket TTS
Free
Pocket TTS by Kyutai (créateurs de Moshi) est un modèle compact de 100M de texte à discours qui frappe bien au-dessus de son poids. Il fonctionne efficacement sur CPU, prend en charge le clonage vocal zéro-shot à partir d'un seul échantillon audio, et produit une parole sonore naturelle. La petite taille du modèle le rend idéal pour le déploiement des bords et les environnements à faible ressources.
Kyutai
MIT
Fast
en, fr
1GB
Oui
Gratuit
Kitten TTS
Free
Kitten TTS by KittenML est un modèle text-to-speech ultra-léger construit sur ONNX. Avec des variantes de 15M à 80M paramètres (25-80 MB sur disque), il offre une synthèse vocale de haute qualité sur CPU sans avoir besoin d'un GPU. Caractéristiques 8 voix intégrées, vitesse de parole réglable, et prétraitement de texte intégré pour les nombres, les devises et les unités. Idéal pour le déploiement des bords et les applications à faible latence.
KittenML
Apache 2.0
Fast
en
0GB
Numéro
Gratuit
CosyVoice3
Standard
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
4GB
Oui
2x
MOSS-TTS
Premium
MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.
OpenMOSS
Apache 2.0
Medium
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
16GB
Oui
4x
MegaTTS3
Premium
MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.
ByteDance
Apache 2.0
Slow
en, zh
8GB
Oui
4x
Kokoro
Gratuit
Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.
Hexgrad
Apache 2.0
Fast
Piper
Gratuit
Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.
Rhasspy
MIT
Fast
VITS
Gratuit
VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.
Jaehyeon Kim et al.
MIT
Fast
MeloTTS
Gratuit
MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.
MyShell.ai
MIT
Fast
OuteTTS
Gratuit
OuteTTS extends large language models with text-to-speech capabilities while preserving the original architecture. It supports multiple backends including llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, and even browser inference via Transformers.js. Features zero-shot voice cloning through speaker profiles saved as JSON.
OuteAI
Apache 2.0
Fast
Pocket TTS
Gratuit
Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.
Kyutai
MIT
Fast
Kitten TTS
Gratuit
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
Bark
Norme
Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Numéro
Bark Small
Norme
Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Numéro
CosyVoice 2
Norme
CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
Oui
Dia TTS
Norme
Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.
Nari Labs
Apache 2.0
Medium
en
Numéro
Parler TTS
Norme
Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.
Hugging Face
Apache 2.0
Medium
en
Numéro
GLM-TTS
Norme
GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.
Zhipu AI
GLM-4 License
Medium
en, zh
Oui
IndexTTS-2
Norme
IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.
Index Team
Bilibili Model License
Medium
en, zh
Oui
Spark TTS
Norme
Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
Oui
GPT-SoVITS
Norme
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
RVC-Boss
MIT
Slow
en, zh, ja, ko
Oui
Orpheus
Norme
Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.
Canopy Labs
Llama 3.2 Community
Medium
en
Numéro
Qwen3 TTS
Norme
Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
Oui
Chatterbox Turbo
Norme
Chatterbox Turbo by Resemble AI is a 350M parameter upgrade to Chatterbox, delivering up to 6x real-time speed with sub-200ms latency. It supports paralinguistic tags like [laugh], [cough], and [chuckle] directly in text. Includes Perth watermarking on all generated audio for provenance tracking.
Resemble AI
MIT
Fast
en
Oui
Zonos
Norme
Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
Oui
Dia 2
Norme
Dia2 by Nari Labs is a streaming-first upgrade to Dia, available in 1B and 2B parameter variants. It begins synthesizing audio from the first few tokens, making it ideal for real-time voice agents and speech-to-speech pipelines. Supports multi-speaker dialogue with [S1]/[S2] tags and paralinguistic cues like (laughs), (coughs).
Nari Labs
Apache 2.0
Fast
en
Numéro
VoxCPM
Norme
VoxCPM 1.5 by OpenBMB is a novel tokenizer-free TTS model that operates in continuous space rather than discrete tokens. It produces high-fidelity 44.1kHz audio, supports zero-shot voice cloning from 3-10 seconds, and maintains consistency across paragraphs. Cross-language cloning lets you apply an English voice to Chinese speech and vice versa.
OpenBMB
Apache 2.0
Fast
en, zh
Oui
TADA
Norme
TADA (Text-Acoustic Dual Alignment) by Hume AI is a groundbreaking TTS model that eliminates hallucinations through a novel dual alignment architecture built on Llama 3.2. Available in 1B (English) and 3B (multilingual) variants, TADA achieves an RTF of 0.09 — 5x faster than comparable LLM-based TTS models. It supports up to 700 seconds of audio context and produces emotionally expressive speech with zero hallucinations on standard benchmarks.
Hume AI
MIT
Fast
en
Numéro
VibeVoice
Norme
VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.
Microsoft
MIT
Fast
en, zh
Numéro
CosyVoice3
Norme
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
Oui
Tableau de comparaison du modèle
| Modèle | Développeur & #160;: | Niveau | Qualité: | Régime | langues | Clonage de la voix | VRAM | Licence & #160;: | Crédits ouverts | |
|---|---|---|---|---|---|---|---|---|---|---|
| Kokoro | Hexgrad | Free | Fast | 11 | 1.5GB | Apache 2.0 | Gratuit | Utilisation | ||
| Piper | Rhasspy | Free | Fast | 31 | 0 (CPU only) | MIT | Gratuit | Utilisation | ||
| VITS | Jaehyeon Kim et al. | Free | Fast | 4 | 1GB | MIT | Gratuit | Utilisation | ||
| MeloTTS | MyShell.ai | Free | Fast | 6 | 0.5GB (GPU optional) | MIT | Gratuit | Utilisation | ||
| Bark | Suno | Standard | Slow | 13 | 5GB | MIT | 2 | Utilisation | ||
| Bark Small | Suno | Standard | Medium | 13 | 2GB | MIT | 2 | Utilisation | ||
| CosyVoice 2 | Alibaba (Tongyi Lab) | Standard | Medium | 8 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| Dia TTS | Nari Labs | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| Parler TTS | Hugging Face | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| GLM-TTS | Zhipu AI | Standard | Medium | 2 | 4GB | GLM-4 License | 2 | Utilisation | ||
| IndexTTS-2 | Index Team | Standard | Medium | 2 | 4GB | Bilibili Model License | 2 | Utilisation | ||
| Spark TTS | SparkAudio | Standard | Medium | 2 | 4GB | CC BY-NC-SA 4.0 | 2 | Utilisation | ||
| GPT-SoVITS | RVC-Boss | Standard | Slow | 4 | 6GB | MIT | 2 | Utilisation | ||
| Orpheus | Canopy Labs | Standard | Medium | 1 | 4GB | Llama 3.2 Community | 2 | Utilisation | ||
| Chatterbox | Resemble AI | Premium | Medium | 1 | 4GB | MIT | 4 | Utilisation | ||
| Tortoise TTS | James Betker | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Utilisation | ||
| StyleTTS 2 | Columbia University | Premium | Medium | 1 | 4GB | MIT | 4 | Utilisation | ||
| OpenVoice | MyShell.ai / MIT | Premium | Medium | 8 | 4GB | MIT | 4 | Utilisation | ||
| Qwen3 TTS | Alibaba (Qwen) | Standard | Medium | 10 | 7GB | Apache 2.0 | 2 | Utilisation | ||
| Sesame CSM | Sesame | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Utilisation | ||
| Chatterbox Turbo | Resemble AI | Standard | Fast | 1 | 2GB | MIT | 2 | Utilisation | ||
| Zonos | Zyphra | Standard | Medium | 5 | 6GB | Apache 2.0 | 2 | Utilisation | ||
| Dia 2 | Nari Labs | Standard | Fast | 1 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| VoxCPM | OpenBMB | Standard | Fast | 2 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| OuteTTS | OuteAI | Free | Fast | 1 | 2GB | Apache 2.0 | Gratuit | Utilisation | ||
| TADA | Hume AI | Standard | Fast | 1 | 5GB | MIT | 2 | Utilisation | ||
| VibeVoice | Microsoft | Standard | Fast | 2 | 4GB | MIT | 2 | Utilisation | ||
| Pocket TTS | Kyutai | Free | Fast | 2 | 1GB | MIT | Gratuit | Utilisation | ||
| Kitten TTS | KittenML | Free | Fast | 1 | 0GB | Apache 2.0 | Gratuit | Utilisation | ||
| CosyVoice3 | Alibaba (FunAudioLLM) | Standard | Fast | 9 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| MOSS-TTS | OpenMOSS | Premium | Medium | 19 | 16GB | Apache 2.0 | 4 | Utilisation | ||
| MegaTTS3 | ByteDance | Premium | Slow | 2 | 8GB | Apache 2.0 | 4 | Utilisation |
La plate-forme de texte à discours la plus complète de l'IA
Pourquoi choisir TTS.ai pour le texte à la parole?
TTS.ai rassemble les meilleurs modèles open-source text-to-speech du monde dans une plate-forme unique et facile à utiliser. Contrairement aux services propriétaires qui vous verrouillent dans un seul moteur vocal, TTS.ai vous donne accès à 20+ modèles de grands laboratoires de recherche dont Coqui, MyShell, Amphion, NVIDIA, Suno, HuggingFace, Tsinghua University, et plus encore.
Chaque modèle est open source sous MIT, Apache 2.0, ou licences permissives similaires, garantissant que vous avez tous les droits commerciaux d'utiliser l'audio généré dans vos projets. Que vous ayez besoin d'une synthèse rapide et légère pour des applications en temps réel ou une sortie studio de qualité supérieure pour les livres audio et podcasts, TTS.ai a le modèle approprié pour chaque cas d'utilisation.
Modèles gratuits, aucun compte requis
Commencez immédiatement avec trois modèles TTS gratuits : Piper (ultra-rapide, léger), VITS (synthèse neuronale de haute qualité) et MeloTTS (assistance multi-langue). Pas d'inscription, pas de carte de crédit, pas de limite sur les générations.
Traitement accéléré par GPU
Tous les modèles TTS fonctionnent sur des GPU NVIDIA dédiés pour des temps de génération rapides et cohérents. Les modèles gratuits génèrent généralement de l'audio en moins de 2 secondes. Les modèles standard comme Kokoro, CosyVoice 2 et Bark en moyenne 3-5 secondes.
30+ Langues prises en charge
Générer un discours en plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le hindi, le russe, etc. Plusieurs modèles soutiennent la synthèse cross-lingual, ce qui signifie que vous pouvez générer un discours dans une langue sur laquelle la voix originale n'a jamais été formée.
API Developer-Ready
Intégrez TTS.ai dans vos applications avec notre API REST compatible OpenAI. Un paramètre pour tous les modèles 20+. Python, JavaScript, cURL et Go SDKs. Support en streaming pour les applications en temps réel. Traitement par lots pour la génération de contenu à grande échelle. Webhooks pour les notifications asynchrones. Disponible sur les plans Pro et Enterprise.
Foire aux questions
Que pourrions-nous améliorer? Vos commentaires nous aident à résoudre les problèmes.
Commencer à convertir le texte en discours maintenant
Rejoignez des milliers de créateurs en utilisant TTS.ai. Obtenez 15 000 caractères gratuits avec un nouveau compte. Modèles gratuits disponibles sans inscription.