Texte AI au discours

Convertissez le texte en langage naturel avec des modèles d'IA open-source. Gratuit à utiliser, aucun compte n'est requis.

0/500 caractères
Inscrivez-vous pour la limite de 5 000 caractères

Enveloppez votre texte dans des balises SSML pour un contrôle précis :

<speak><prosody rate="slow">Slow speech</prosody></speak>

Ajouter des marqueurs d'émotion pour influencer la livraison (le support du modèle varie):

Définir les prononciations personnalisées (mot = prononciation) :

-12 +12
0.5x 2.0x
Gratuit avec Piper, VITS, MeloTTS
Votre audio généré apparaîtra ici. Choisissez un modèle, entrez le texte et cliquez sur Générer.
Production audio réussie
Télécharger l'audio Lien expire en 24h
Vous aimez TTS.ai ? Parlez-en à vos amis !

Détails du modèle

Pocket TTS

Pocket TTS

Free

Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.

Développeur & #160;: Kyutai
Licence & #160;: MIT
Régime Fast
Qualité:
langues 2 langues
VRAM 1GB
Clonage de la voix Appui
Caractéristiques:
100M parameters CPU inference Voice cloning Single-sample cloning Edge-ready
Meilleur pour:: Lightweight deployment, CPU-only environments, quick voice cloning

Conseils pour de meilleurs résultats

  • Utiliser la ponctuation appropriée pour les pauses naturelles et l'intonation
  • Épelez les nombres et les abréviations pour une prononciation plus claire
  • Ajouter des virgules pour créer de courtes pauses entre les phrases
  • Utilisez l'ellipsie (...) pour des pauses dramatiques plus longues
  • Essayez Kokoro ou CosyVoice 2 pour les résultats les plus naturels
  • Utiliser Dia pour la boîte de dialogue multi haut-parleurs et le contenu podcast

Utilisation des caractères

Niveau Coût par 1 000 ombles
Gratuit 0 crédits (limités)
Norme 2 crédits / 1 000 caractères
Prime 4 crédits / 1 000 caractères

Comment fonctionne le texte d'IA pour parler

Générer des voix-overs de qualité professionnelle en trois étapes simples. Aucune connaissance technique requise.

Étape 1

Saisissez votre texte

Tapez, collez ou téléchargez le texte que vous souhaitez convertir en parole. Il supporte jusqu'à 5 000 caractères par génération pour les utilisateurs connectés. Utilisez du texte simple ou ajoutez des balises SSML pour un contrôle avancé de la prononciation, des pauses et de l'accent.

Étape 2

Choisissez Modèle & Voix

Choisissez une voix qui correspond à votre contenu, choisissez votre langue cible, ajustez la vitesse de lecture de 0,5x à 2,0x et sélectionnez votre format de sortie préféré (MP3, WAV, OGG ou FLAC).

Étape 3

Générer et télécharger

Cliquez sur Générer et votre audio est prêt en quelques secondes. Prévisualiser avec le lecteur intégré, télécharger dans le format choisi, ou copier un lien partageable. Utilisez l'API pour le traitement par lots et l'intégration dans votre workflow.

Text to Speech Use Cases

Le text-to-speech de l'IA transforme la façon dont les gens créent, consomment et interagissent avec le contenu audio dans des dizaines d'industries.

Tous les modèles texte à discours

Spécifications détaillées pour chaque modèle d'IA disponible sur TTS.ai. Comparez la qualité, la vitesse, le support linguistique et les fonctionnalités pour trouver le modèle parfait pour votre projet.

KokoroKokoro

Free

Kokoro est un modèle text-to-speech de 82 millions de paramètres qui frappe bien au-dessus de sa classe de poids. Malgré sa petite taille, il produit un langage remarquablement naturel et expressif. Kokoro prend en charge plusieurs langues dont l'anglais, le japonais, le chinois et le coréen avec une variété de voix expressives.

Développeur & #160;::
Hexgrad
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
VRAM:
1.5GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Paramètres 82M Ultra-rapide Voix expressives Multilingue Appui à la diffusion de l'information
Meilleur pour:: TTS de haute qualité avec latence minimale, applications de streaming

PiperPiper

Free

Piper est un moteur text-to-speech léger développé par Rhasspy qui utilise les architectures VITS et larynx. Il fonctionne entièrement sur CPU, ce qui le rend idéal pour les périphériques de bord, la domotique et les applications nécessitant TTS hors ligne. Avec plus de 100 voix dans plus de 30 langues, Piper offre un langage sonore naturel à des vitesses en temps réel même sur un Raspberry Pi 4.

Développeur & #160;::
Rhasspy
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
VRAM:
0 (CPU only)
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
CPU-friendly Offline capable Plus de 100 voix 30+ langues Appui au SSML
Meilleur pour:: Aperçus rapides, accessibilité et applications intégrées

VITSVITS

Free

VITS (Variational Inférence with adversarial learning for de bout en bout Text-to-Speech) est une méthode TTS parallèle de bout en bout qui génère plus de sonorisation naturelle que les modèles en deux étapes actuels. Il adopte l'inférence variationnelle augmentée avec des flux de normalisation et un processus de formation contradictoire, permettant une amélioration significative de la naturalité.

Développeur & #160;::
Jaehyeon Kim et al.
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, zh, ja, ko
VRAM:
1GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Synthèse de bout en bout Prosodie naturelle Inférence rapide Haut-parleurs multiples
Meilleur pour:: Texte à usage général avec prosodie naturelle

MeloTTSMeloTTS

Free

MeloTTS by MyShell.ai est une bibliothèque multilingue TTS qui soutient l'anglais (américain, britannique, indien, australien), l'espagnol, le français, le chinois, le japonais et le coréen. Il est extrêmement rapide, le traitement du texte à une vitesse presque en temps réel sur CPU seul. MeloTTS est conçu pour l'utilisation de la production et supporte à la fois l'inférence CPU et GPU.

Développeur & #160;::
MyShell.ai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, es, fr, zh, ja, ko
VRAM:
0.5GB (GPU optional)
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Optimisé par le CPU Multilingue Accents multiples Prête à la production Faible latence
Meilleur pour:: Applications de production nécessitant des TTS rapides et multilingues

BarkBark

Standard

Bark by Suno est un modèle text-to-audio basé sur un transformateur qui peut générer une parole très réaliste, multilingue ainsi que d'autres audio comme la musique, le bruit de fond et les effets sonores. Il peut produire des communications non verbales comme rire, soupirer et pleurer. Bark supporte plus de 100 presets de haut-parleurs et 13+ langues.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
VRAM:
5GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Effets sonores Rire/soupir Génération de musique Plus de 100 orateurs Multilingue
Meilleur pour:: Contenu audio créatif, livres audio avec émotion, effets sonores

Bark SmallBark Small

Standard

Bark Small est une version distillée du modèle Bark qui échange une certaine qualité audio pour des vitesses d'inférence considérablement plus rapides et des exigences de mémoire plus faibles. Il conserve la capacité de Bark à générer la parole avec des émotions, des rires et plusieurs langues.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
VRAM:
2GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Légèreté Plus rapide que l'écorce complète Discours émotionnel Multilingue
Meilleur pour:: Audio créatif rapide quand le Bark plein est trop lent

CosyVoice 2CosyVoice 2

Standard

CosyVoice 2 du Tongyi Lab d'Alibaba atteint une qualité de parole comparable à l'homme avec une latence extrêmement faible, ce qui le rend idéal pour les applications en temps réel. Il utilise une approche de quantification scalaire finie pour la synthèse en streaming et prend en charge le clonage vocal zéro-shot, la synthèse cross-lingual et le contrôle des émotions à grain fin.

Développeur & #160;::
Alibaba (Tongyi Lab)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, it, es
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Streaming Closonnage zéro-shot Linguistique translingue Contrôle de l'émotion Parité humaine
Meilleur pour:: Applications en temps réel, streaming TTS, assistants vocaux

Dia TTSDia TTS

Standard

Dia by Nari Labs est un modèle text-to-speech de 1.6B conçu spécifiquement pour générer le dialogue multi-parleurs. Il peut produire des conversations sonores naturelles entre deux haut-parleurs avec des prises de vues appropriées, la prosodie, et l'expression émotionnelle. Dia est parfait pour créer des contenus de style podcast, des dialogues audiobooks, et l'IA conversationnelle interactive.

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Haut-parleurs multiples Génération de dialogues Tournage naturel Expression émotionnelle Paramètres 1.6B
Meilleur pour:: Podcasts, dialogues audiobooks, contenu conversationnel

Parler TTSParler TTS

Standard

Parler TTS est un modèle texte-à-discours qui utilise des descriptions vocales en langage naturel pour contrôler la parole générée. Au lieu de sélectionner à partir de voix prédéfinies, vous décrivez la voix que vous voulez (par exemple, «une voix féminine chaude avec un léger accent britannique, parlant lentement et clairement») et Parler génère une correspondance vocale avec cette description.

Développeur & #160;::
Hugging Face
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Description de la voix Contrôle du langage naturel Création vocale flexible Pas de voix prédéfinies nécessaires
Meilleur pour:: Applications créatives où vous avez besoin de caractéristiques vocales personnalisées

GLM-TTSGLM-TTS

Standard

GLM-TTS de Zhipu AI est un système texte-à-discours construit sur l'architecture Llama avec un écoulement correspondant. Il atteint le taux d'erreur de caractères le plus bas parmi les modèles TTS open-source, ce qui signifie qu'il produit la prononciation la plus précise. GLM-TTS prend en charge l'anglais et le chinois avec le clonage vocal de 3-10 échantillons audio secondes.

Développeur & #160;::
Zhipu AI
Licence & #160;::
GLM-4 License
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Taux d'erreur le plus bas Closonnage de la voix Correspondance des flux Prosodie naturelle
Meilleur pour:: Demandes nécessitant une précision maximale de prononciation

IndexTTS-2IndexTTS-2

Standard

IndexTTS-2 est un système texto-speech avancé qui excelle à la synthèse vocale zéro-shot avec un contrôle de l'émotion fine-grain. Il peut générer la parole avec des tons émotionnels spécifiques comme heureux, triste, en colère, ou craintif sans exiger des données d'entraînement spécifiques à l'émotion. Le modèle utilise des vecteurs d'émotion pour contrôler précisément l'expression émotionnelle de la parole générée.

Développeur & #160;::
Index Team
Licence & #160;::
Bilibili Model License
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Contrôle de l'émotion Cap zéro Vecteurs d'émotion Discours express Contrôle à grains fins
Meilleur pour:: Contenu expressif émotionnel, livres audio, assistants virtuels

Spark TTSSpark TTS

Standard

Spark TTS de SparkAudio est un modèle text-to-speech qui combine le clonage de la voix avec une émotion contrôlable et un style de parole. En utilisant seulement 5 secondes d'audio de référence, il peut cloner une voix puis générer une parole avec des émotions, des vitesses et des styles différents tout en conservant l'identité vocale clonée.

Développeur & #160;::
SparkAudio
Licence & #160;::
CC BY-NC-SA 4.0
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Closonnage de la voix Contrôle de l'émotion Contrôle de style Sur la base d'un système rapide 5 secondes de clonage
Meilleur pour:: Création de contenu avec voix clonées et contrôle émotionnel

GPT-SoVITSGPT-SoVITS

Standard

GPT-SoVITS combine la modélisation de langage de style GPT avec SoVITS (Sing Voice Inference via Translation and Synthesis) pour le clonage de voix puissant à faible résolution. Avec aussi peu que 5 secondes d'audio de référence, il peut cloner avec précision une voix et générer de nouveaux discours tout en préservant les caractéristiques uniques de l'orateur. Il excelle à la fois à parler et à chanter la synthèse vocale.

Développeur & #160;::
RVC-Boss
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, ja, ko
VRAM:
6GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
5 secondes de clonage Voix chantante Apprentissage à petite échelle Haute fidélité Linguistique translingue
Meilleur pour:: Closonnage vocal, synthèse chantante, réplication vocale créatrice de contenu

OrpheusOrpheus

Standard

Orphée est un modèle à grande échelle texte-à-discours qui atteint l'expression émotionnelle au niveau humain. Formé sur plus de 100 000 heures de diverses données de la parole, il excelle dans la génération de la parole avec des émotions naturelles, l'accent, et les styles de parole. Orphée peut produire une parole qui est pratiquement indistinguable des enregistrements humains.

Développeur & #160;::
Canopy Labs
Licence & #160;::
Llama 3.2 Community
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
émotion au niveau de l'homme Formation de 100 K heures L'accent sur la nature Discours express
Meilleur pour:: Expression émotionnelle de haute qualité, livres audio, voix agissante

ChatterboxChatterbox

Premium

Chatterbox by Resemble AI est un modèle de clonage vocal à capture nulle de pointe. Il peut reproduire n'importe quelle voix à partir d'un seul échantillon audio avec une précision remarquable, captant non seulement le timbre, mais aussi le style de parole et les nuances émotionnelles. Chatterbox dispose également d'un contrôle de l'émotion à grain fin, vous permettant d'ajuster le ton émotionnel du discours généré indépendamment de l'identité vocale.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Closonnage zéro-shot Contrôle de l'émotion Haute fidélité Transfert de style Un seul échantillon de clonage
Meilleur pour:: Closonnage vocal professionnel avec contrôle émotionnel, création de contenu

Tortoise TTSTortoise TTS

Premium

Tortoise TTS est un système autorégressif de texte à parole multivoix qui priorise la qualité audio sur la vitesse. Il utilise l'architecture inspirée de DALL-E pour générer une parole très naturelle avec une excellente prosody et une similarité de haut-parleur. Bien que plus lent que de nombreuses alternatives, Tortoise produit une partie de la parole synthétique la plus réaliste disponible dans l'écosystème open-source.

Développeur & #160;::
James Betker
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
VRAM:
8GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Qualité la plus élevée Multi-voix Architecture DALL-E Closonnage de la voix Autorégression
Meilleur pour:: Livres audio, contenu premium, applications de qualité

StyleTTS 2StyleTTS 2

Premium

StyleTTS 2 réalise une synthèse TTS à l'échelle humaine en combinant diffusion de style et formation contradictoire à l'aide de modèles de langage de langage de grande taille. Il génère la parole la plus naturelle parmi les modèles de langage mono-parleur, rivalisant avec les enregistrements humains. StyleTTS 2 utilise la modélisation de style basée sur la diffusion pour capturer toute la gamme de variations de la parole humaine.

Développeur & #160;::
Columbia University
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
4x
Niveau humain Diffusion de style Formation de l'adversaire Variation naturelle Haute fidélité
Meilleur pour:: Synthèse d'un seul haut-parleur de qualité Studio, narration professionnelle

OpenVoiceOpenVoice

Premium

OpenVoice by MyShell.ai permet le clonage instantané de la voix avec contrôle granulaire sur le style vocal, l'émotion, l'accent, le rythme, les pauses et l'intonation. Il peut cloner une voix à partir d'un court clip audio et générer la parole en plusieurs langues tout en conservant l'identité de l'enceinte. OpenVoice fonctionne également comme un convertisseur vocal, permettant la transformation vocale en temps réel.

Développeur & #160;::
MyShell.ai / MIT
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, es, it
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Closonnage instantané Conversion vocale Contrôle de l'émotion Contrôle rapide Multilingue
Meilleur pour:: Closonnage vocal avec contrôle de style à grain fin, conversion vocale

Qwen3 TTSQwen3 TTS

Standard

Qwen3-TTS est un modèle de texte à parole de 1,7 milliard de paramètres de l'équipe Qwen d'Alibaba. Il prend en charge trois modes : voix prédéfinies avec contrôle d'émotion (9 haut-parleurs), clonage de la voix à partir de seulement 3 secondes d'audio, et un mode de conception de la voix unique où vous décrivez la voix que vous voulez en langage naturel.

Développeur & #160;::
Alibaba (Qwen)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, de, fr, ru, pt, es, it
VRAM:
7GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Closonnage de la voix 9 voix prédéfinies Conception vocale à partir du texte Contrôle de l'émotion 10 langues
Meilleur pour:: Contenu multilingue avec clonage vocal ou design vocal personnalisé

Sesame CSMSesame CSM

Premium

Sésame CSM (Conversational Speech Model) est un modèle de 1 milliard de paramètres conçu spécifiquement pour générer la parole conversationnelle. Il modélise les modèles naturels de conversation humaine, y compris le timing tour à tour, les réponses des canaux arrière, les réactions émotionnelles et le flux conversationnel.

Développeur & #160;::
Sesame
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
VRAM:
8GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
4x
Conversationnel Calendrier naturel Tournage Canal arrière Paramètres 1B
Meilleur pour:: Assistants AI, chatbots, applications d'IA conversationnelles

Chatterbox TurboChatterbox Turbo

Standard

Chatterbox Turbo by Resemble AI est une mise à jour de 350M vers Chatterbox, fournissant jusqu'à 6x vitesse en temps réel avec sous-200ms latence. Il prend en charge les balises paralinguistiques comme [laugh], [toux] et [chuckle] directement dans le texte. Inclut le filigrane Perth sur tous les audios générés pour le suivi de provenance.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en
VRAM:
2GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Latence inférieure à 200 ms Balises paralinguistiques 6x temps réel Closonnage de la voix Marquage des eaux
Meilleur pour:: Agents vocaux en temps réel, discours expressif avec des sons naturels

ZonosZonos

Standard

Zonos v0.1 de Zyphra est un modèle de paramètre 1.6B doté d'un contrôle d'émotion à grain fin avec des curseurs pour le bonheur, la colère, la tristesse, la peur et la surprise. Il offre à la fois une variante Transformer et un nouveau modèle SSM (state-space).

Développeur & #160;::
Zyphra
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, ja, zh, fr, de
VRAM:
6GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Contrôle de l'émotion Closonnage de la voix Architecture SSM Multilingue Contrôle de l'emplacement/de la vitesse
Meilleur pour:: Discours expressif avec contrôle des émotions, studio de design vocal

Dia 2Dia 2

Standard

Dia2 de Nari Labs est une première mise à niveau en streaming vers Dia, disponible en variantes de paramètres 1B et 2B. Il commence à synthétiser l'audio des premiers jetons, ce qui le rend idéal pour les agents vocaux en temps réel et les pipelines de parole à parole. Supporte le dialogue multi-parleurs avec des balises [S1]/[S2] et des indices paralinguistiques comme (rires), (toux).

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Sortie de streaming Haut-parleurs multiples Faible latence Points paralinguistiques Jusqu'à 2 min de sortie
Meilleur pour:: Agents vocaux en temps réel, génération de dialogue, applications de streaming

VoxCPMVoxCPM

Standard

VoxCPM 1.5 d'OpenBMB est un nouveau modèle TTS sans tokenizer qui fonctionne dans l'espace continu plutôt que des tokens discrets. Il produit une haute fidélité audio 44.1kHz, prend en charge le clonage vocal zéro-shot à partir de 3-10 secondes, et maintient la cohérence entre les paragraphes.

Développeur & #160;::
OpenBMB
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
44,1kHz audio Sans tokenizer Closonnage translingue Connaissance du contexte LORA réglage fin
Meilleur pour:: Audio haute fidélité, livres audio, contenu de forme longue avec cohérence vocale

OuteTTSOuteTTS

Free

OuteTTS étend les grands modèles de langage avec des capacités de texte à parole tout en préservant l'architecture originale. Il prend en charge plusieurs backends tels que lama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, et même inférence de navigateur via Transformers.js.

Développeur & #160;::
OuteAI
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en
VRAM:
2GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
Gratuit
Inférence du CPU Inférence du navigateur Closonnage de la voix Plusieurs moteurs de recherche Profils des conférenciers
Meilleur pour:: Déploiement d'Edge, TTS basé sur navigateur, environnements à faibles ressources

TADATADA

Standard

TADA (Text-Acoustic Dual Alignement) by Hume AI est un modèle TTS révolutionnaire qui élimine les hallucinations grâce à une nouvelle architecture de double alignement construite sur Llama 3.2. Disponible en versions 1B (anglais) et 3B (multilingue), TADA obtient un RTF de 0,09 — 5x plus rapide que les modèles TTS comparables basés sur LLM. Il supporte jusqu'à 700 secondes de contexte audio et produit un discours émotionnellement expressif avec zéro hallucination sur des repères standard.

Développeur & #160;::
Hume AI
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en
VRAM:
5GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Zéro hallucination 5x plus rapide que LLM TTS Expression émotionnelle Contexte audio 700s Double alignement
Meilleur pour:: Parole sans hallucination de haute qualité, expression émotionnelle, inférence rapide

VibeVoiceVibeVoice

Standard

VibeVoice by Microsoft propose deux variantes : un modèle 1.5B pour le contenu de forme longue (jusqu'à 90 minutes, 4 haut-parleurs) et un modèle Realtime 0.5B pour le streaming avec ~200ms première latence audio. La variante 1.5B excelle dans les podcasts et les livres audio avec cohérence haut-parleur sur les longs passages.

Développeur & #160;::
Microsoft
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Haut-parleurs multiples Jusqu'à 90 min Génération de podcasts Cohérence des orateurs 200ms en streaming
Meilleur pour:: Podcasts, livres audio, contenu multi haut-parleurs de forme longue

Pocket TTSPocket TTS

Free

Pocket TTS by Kyutai (créateurs de Moshi) est un modèle compact de 100M de texte à discours qui frappe bien au-dessus de son poids. Il fonctionne efficacement sur CPU, prend en charge le clonage vocal zéro-shot à partir d'un seul échantillon audio, et produit une parole sonore naturelle. La petite taille du modèle le rend idéal pour le déploiement des bords et les environnements à faible ressources.

Développeur & #160;::
Kyutai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, fr
VRAM:
1GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
Gratuit
Paramètres 100M Inférence du CPU Closonnage de la voix Closonnage à un seul échantillon Prête à monter
Meilleur pour:: Déploiement léger, environnements CPU seulement, clonage vocal rapide

Kitten TTSKitten TTS

Free

Kitten TTS by KittenML est un modèle text-to-speech ultra-léger construit sur ONNX. Avec des variantes de 15M à 80M paramètres (25-80 MB sur disque), il offre une synthèse vocale de haute qualité sur CPU sans avoir besoin d'un GPU. Caractéristiques 8 voix intégrées, vitesse de parole réglable, et prétraitement de texte intégré pour les nombres, les devises et les unités. Idéal pour le déploiement des bords et les applications à faible latence.

Développeur & #160;::
KittenML
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en
VRAM:
0GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Inférence du CPU seulement Taille du modèle de moins de 80 Mo 8 voix intégrées Contrôle de vitesse Basé sur l'ONNX Sortie 24kHz
Meilleur pour:: TTS léger rapide, déploiement des bords, applications à faible latence

CosyVoice3CosyVoice3

Standard

CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.

Développeur & #160;::
Alibaba (FunAudioLLM)
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, zh, ja, ko, de, es, fr, it, ru
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Bi-streaming Emotion control Voice cloning Speed/volume control Instruction following
Meilleur pour:: Multilingual production TTS, real-time applications, voice cloning

MOSS-TTSMOSS-TTS

Premium

MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.

Développeur & #160;::
OpenMOSS
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
VRAM:
16GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Ultra-long generation 20 languages Voice cloning Duration control Pronunciation control Code-switching
Meilleur pour:: Audiobooks, long-form content, multilingual production

MegaTTS3MegaTTS3

Premium

MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.

Développeur & #160;::
ByteDance
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en, zh
VRAM:
8GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Voice cloning Adjustable similarity Cross-lingual
Meilleur pour:: High-fidelity voice cloning

KokoroKokoro

Gratuit

Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.

Développeur & #160;::
Hexgrad
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues: en, ja, zh, ko, fr, de, it, pt, es, hi, ru
Meilleur pour:: High-quality TTS with minimal latency, streaming applications

PiperPiper

Gratuit

Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.

Développeur & #160;::
Rhasspy
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
Meilleur pour:: Quick previews, accessibility, and embedded applications

VITSVITS

Gratuit

VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.

Développeur & #160;::
Jaehyeon Kim et al.
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, zh, ja, ko
Meilleur pour:: General-purpose text-to-speech with natural prosody

MeloTTSMeloTTS

Gratuit

MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.

Développeur & #160;::
MyShell.ai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, es, fr, zh, ja, ko
Meilleur pour:: Production applications needing fast, multilingual TTS

OuteTTSOuteTTS

Gratuit

OuteTTS extends large language models with text-to-speech capabilities while preserving the original architecture. It supports multiple backends including llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, and even browser inference via Transformers.js. Features zero-shot voice cloning through speaker profiles saved as JSON.

Développeur & #160;::
OuteAI
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues: en
Meilleur pour:: Edge deployment, browser-based TTS, low-resource environments

Pocket TTSPocket TTS

Gratuit

Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.

Développeur & #160;::
Kyutai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, fr
Meilleur pour:: Lightweight deployment, CPU-only environments, quick voice cloning

Kitten TTSKitten TTS

Gratuit

Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.

Développeur & #160;::
KittenML
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues: en
Meilleur pour:: Fast lightweight TTS, edge deployment, low-latency applications

BarkBark

Norme

Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Clonage de la voix:
Numéro
Sound effectsLaughing/sighingMusic generation100+ speakersMultilingual
Meilleur pour:: Creative audio content, audiobooks with emotion, sound effects

Bark SmallBark Small

Norme

Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Clonage de la voix:
Numéro
LightweightFaster than full BarkEmotional speechMultilingual
Meilleur pour:: Quick creative audio when full Bark is too slow

CosyVoice 2CosyVoice 2

Norme

CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.

Développeur & #160;::
Alibaba (Tongyi Lab)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, it, es
Clonage de la voix:
Oui
StreamingZero-shot cloningCross-lingualEmotion controlHuman-parity
Meilleur pour:: Real-time applications, streaming TTS, voice assistants

Dia TTSDia TTS

Norme

Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Multi-speakerDialog generationNatural turn-takingEmotional expression1.6B parameters
Meilleur pour:: Podcasts, audiobook dialogues, conversational content

Parler TTSParler TTS

Norme

Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.

Développeur & #160;::
Hugging Face
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Voice descriptionNatural language controlFlexible voice creationNo preset voices needed
Meilleur pour:: Creative applications where you need custom voice characteristics

GLM-TTSGLM-TTS

Norme

GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.

Développeur & #160;::
Zhipu AI
Licence & #160;::
GLM-4 License
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Lowest error rateVoice cloningFlow matchingNatural prosody
Meilleur pour:: Applications requiring maximum pronunciation accuracy

IndexTTS-2IndexTTS-2

Norme

IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.

Développeur & #160;::
Index Team
Licence & #160;::
Bilibili Model License
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Emotion controlZero-shotEmotion vectorsExpressive speechFine-grained control
Meilleur pour:: Emotionally expressive content, audiobooks, virtual assistants

Spark TTSSpark TTS

Norme

Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.

Développeur & #160;::
SparkAudio
Licence & #160;::
CC BY-NC-SA 4.0
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Voice cloningEmotion controlStyle controlPrompt-based5-second cloning
Meilleur pour:: Content creation with cloned voices and emotional control

GPT-SoVITSGPT-SoVITS

Norme

GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.

Développeur & #160;::
RVC-Boss
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, ja, ko
Clonage de la voix:
Oui
5-second cloningSinging voiceFew-shot learningHigh fidelityCross-lingual
Meilleur pour:: Voice cloning, singing synthesis, content creator voice replication

OrpheusOrpheus

Norme

Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.

Développeur & #160;::
Canopy Labs
Licence & #160;::
Llama 3.2 Community
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Human-level emotion100K hours trainingNatural emphasisExpressive speech
Meilleur pour:: High-quality emotional speech, audiobooks, voice acting

Qwen3 TTSQwen3 TTS

Norme

Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.

Développeur & #160;::
Alibaba (Qwen)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, de, fr, ru, pt, es, it
Clonage de la voix:
Oui
Voice cloning9 preset voicesVoice design from textEmotion control10 languages
Meilleur pour:: Multilingual content with voice cloning or custom voice design

Chatterbox TurboChatterbox Turbo

Norme

Chatterbox Turbo by Resemble AI is a 350M parameter upgrade to Chatterbox, delivering up to 6x real-time speed with sub-200ms latency. It supports paralinguistic tags like [laugh], [cough], and [chuckle] directly in text. Includes Perth watermarking on all generated audio for provenance tracking.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en
Clonage de la voix:
Oui
Sub-200ms latencyParalinguistic tags6x real-timeVoice cloningWatermarking
Meilleur pour:: Real-time voice agents, expressive speech with natural sounds

ZonosZonos

Norme

Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.

Développeur & #160;::
Zyphra
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, ja, zh, fr, de
Clonage de la voix:
Oui
Emotion controlVoice cloningSSM architectureMultilingualPitch/rate control
Meilleur pour:: Expressive speech with emotion control, voice design studio

Dia 2Dia 2

Norme

Dia2 by Nari Labs is a streaming-first upgrade to Dia, available in 1B and 2B parameter variants. It begins synthesizing audio from the first few tokens, making it ideal for real-time voice agents and speech-to-speech pipelines. Supports multi-speaker dialogue with [S1]/[S2] tags and paralinguistic cues like (laughs), (coughs).

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en
Clonage de la voix:
Numéro
Streaming outputMulti-speakerLow latencyParalinguistic cuesUp to 2 min output
Meilleur pour:: Real-time voice agents, dialogue generation, streaming applications

VoxCPMVoxCPM

Norme

VoxCPM 1.5 by OpenBMB is a novel tokenizer-free TTS model that operates in continuous space rather than discrete tokens. It produces high-fidelity 44.1kHz audio, supports zero-shot voice cloning from 3-10 seconds, and maintains consistency across paragraphs. Cross-language cloning lets you apply an English voice to Chinese speech and vice versa.

Développeur & #160;::
OpenBMB
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
44.1kHz audioTokenizer-freeCross-lingual cloningContext-awareLoRA fine-tuning
Meilleur pour:: High-fidelity audio, audiobooks, long-form content with voice consistency

TADATADA

Norme

TADA (Text-Acoustic Dual Alignment) by Hume AI is a groundbreaking TTS model that eliminates hallucinations through a novel dual alignment architecture built on Llama 3.2. Available in 1B (English) and 3B (multilingual) variants, TADA achieves an RTF of 0.09 — 5x faster than comparable LLM-based TTS models. It supports up to 700 seconds of audio context and produces emotionally expressive speech with zero hallucinations on standard benchmarks.

Développeur & #160;::
Hume AI
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en
Clonage de la voix:
Numéro
Zero hallucinations5x faster than LLM TTSEmotional expression700s audio contextDual alignment
Meilleur pour:: High-quality hallucination-free speech, emotional expression, fast inference

VibeVoiceVibeVoice

Norme

VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.

Développeur & #160;::
Microsoft
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, zh
Clonage de la voix:
Numéro
Multi-speakerLong-form (90 min)Podcast generationDialogueLow latency
Meilleur pour:: Podcasts, dialogues, long-form narration, multi-speaker content

CosyVoice3CosyVoice3

Norme

CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.

Développeur & #160;::
Alibaba (FunAudioLLM)
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, zh, ja, ko, de, es, fr, it, ru
Clonage de la voix:
Oui
Bi-streamingEmotion controlVoice cloningSpeed/volume controlInstruction following
Meilleur pour:: Multilingual production TTS, real-time applications, voice cloning

ChatterboxChatterbox

Prime

Chatterbox by Resemble AI is a cutting-edge zero-shot voice cloning model. It can replicate any voice from a single audio sample with remarkable accuracy, capturing not just the timbre but also the speaking style and emotional nuances. Chatterbox also features fine-grained emotion control, allowing you to adjust the emotional tone of the generated speech independently from the voice identity.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Oui
VRAM:
4GB
Coût par 1 000 ombles:
4x
Zero-shot cloningEmotion controlHigh fidelityStyle transferSingle sample cloning
Meilleur pour:: Professional voice cloning with emotional control, content creation

Tortoise TTSTortoise TTS

Prime

Tortoise TTS is an autoregressive multi-voice text-to-speech system that prioritizes audio quality over speed. It uses DALL-E-inspired architecture to generate highly natural speech with excellent prosody and speaker similarity. While slower than many alternatives, Tortoise produces some of the most realistic synthetic speech available in the open-source ecosystem.

Développeur & #160;::
James Betker
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
Clonage de la voix:
Oui
VRAM:
8GB
Coût par 1 000 ombles:
4x
Highest qualityMulti-voiceDALL-E architectureVoice cloningAutoregressive
Meilleur pour:: Audiobooks, premium content, quality-first applications

StyleTTS 2StyleTTS 2

Prime

StyleTTS 2 achieves human-level TTS synthesis by combining style diffusion with adversarial training using large speech language models. It generates the most natural sounding speech among single-speaker models, rivaling human recordings. StyleTTS 2 uses diffusion-based style modeling to capture the full range of human speech variation.

Développeur & #160;::
Columbia University
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
VRAM:
4GB
Coût par 1 000 ombles:
4x
Human-levelStyle diffusionAdversarial trainingNatural variationHigh fidelity
Meilleur pour:: Studio-quality single-speaker synthesis, professional narration

OpenVoiceOpenVoice

Prime

OpenVoice by MyShell.ai enables instant voice cloning with granular control over voice style, emotion, accent, rhythm, pauses, and intonation. It can clone a voice from a short audio clip and generate speech in multiple languages while maintaining the speaker identity. OpenVoice also functions as a voice converter, allowing real-time voice transformation.

Développeur & #160;::
MyShell.ai / MIT
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, es, it
Clonage de la voix:
Oui
VRAM:
4GB
Coût par 1 000 ombles:
4x
Instant cloningVoice conversionEmotion controlAccent controlMultilingual
Meilleur pour:: Voice cloning with fine-grained style control, voice conversion

Sesame CSMSesame CSM

Prime

Sesame CSM (Conversational Speech Model) is a 1 billion parameter model designed specifically for generating conversational speech. It models the natural patterns of human conversation including turn-taking timing, backchannel responses, emotional reactions, and conversational flow. CSM generates audio that sounds like a natural human conversation rather than synthetic speech.

Développeur & #160;::
Sesame
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
Clonage de la voix:
Numéro
VRAM:
8GB
Coût par 1 000 ombles:
4x
ConversationalNatural timingTurn-takingBackchannel1B parameters
Meilleur pour:: AI assistants, chatbots, conversational AI applications

MOSS-TTSMOSS-TTS

Prime

MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.

Développeur & #160;::
OpenMOSS
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
Clonage de la voix:
Oui
VRAM:
16GB
Coût par 1 000 ombles:
4x
Ultra-long generation20 languagesVoice cloningDuration controlPronunciation controlCode-switching
Meilleur pour:: Audiobooks, long-form content, multilingual production

MegaTTS3MegaTTS3

Prime

MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.

Développeur & #160;::
ByteDance
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
VRAM:
8GB
Coût par 1 000 ombles:
4x
Voice cloningAdjustable similarityCross-lingual
Meilleur pour:: High-fidelity voice cloning

Tableau de comparaison du modèle

Modèle Développeur & #160;: Niveau Qualité: Régime langues Clonage de la voix VRAM Licence & #160;: Crédits ouverts
Kokoro Hexgrad Free Fast 11 1.5GB Apache 2.0 Gratuit Utilisation
Piper Rhasspy Free Fast 31 0 (CPU only) MIT Gratuit Utilisation
VITS Jaehyeon Kim et al. Free Fast 4 1GB MIT Gratuit Utilisation
MeloTTS MyShell.ai Free Fast 6 0.5GB (GPU optional) MIT Gratuit Utilisation
Bark Suno Standard Slow 13 5GB MIT 2 Utilisation
Bark Small Suno Standard Medium 13 2GB MIT 2 Utilisation
CosyVoice 2 Alibaba (Tongyi Lab) Standard Medium 8 4GB Apache 2.0 2 Utilisation
Dia TTS Nari Labs Standard Medium 1 4GB Apache 2.0 2 Utilisation
Parler TTS Hugging Face Standard Medium 1 4GB Apache 2.0 2 Utilisation
GLM-TTS Zhipu AI Standard Medium 2 4GB GLM-4 License 2 Utilisation
IndexTTS-2 Index Team Standard Medium 2 4GB Bilibili Model License 2 Utilisation
Spark TTS SparkAudio Standard Medium 2 4GB CC BY-NC-SA 4.0 2 Utilisation
GPT-SoVITS RVC-Boss Standard Slow 4 6GB MIT 2 Utilisation
Orpheus Canopy Labs Standard Medium 1 4GB Llama 3.2 Community 2 Utilisation
Chatterbox Resemble AI Premium Medium 1 4GB MIT 4 Utilisation
Tortoise TTS James Betker Premium Slow 1 8GB Apache 2.0 4 Utilisation
StyleTTS 2 Columbia University Premium Medium 1 4GB MIT 4 Utilisation
OpenVoice MyShell.ai / MIT Premium Medium 8 4GB MIT 4 Utilisation
Qwen3 TTS Alibaba (Qwen) Standard Medium 10 7GB Apache 2.0 2 Utilisation
Sesame CSM Sesame Premium Slow 1 8GB Apache 2.0 4 Utilisation
Chatterbox Turbo Resemble AI Standard Fast 1 2GB MIT 2 Utilisation
Zonos Zyphra Standard Medium 5 6GB Apache 2.0 2 Utilisation
Dia 2 Nari Labs Standard Fast 1 4GB Apache 2.0 2 Utilisation
VoxCPM OpenBMB Standard Fast 2 4GB Apache 2.0 2 Utilisation
OuteTTS OuteAI Free Fast 1 2GB Apache 2.0 Gratuit Utilisation
TADA Hume AI Standard Fast 1 5GB MIT 2 Utilisation
VibeVoice Microsoft Standard Fast 2 4GB MIT 2 Utilisation
Pocket TTS Kyutai Free Fast 2 1GB MIT Gratuit Utilisation
Kitten TTS KittenML Free Fast 1 0GB Apache 2.0 Gratuit Utilisation
CosyVoice3 Alibaba (FunAudioLLM) Standard Fast 9 4GB Apache 2.0 2 Utilisation
MOSS-TTS OpenMOSS Premium Medium 19 16GB Apache 2.0 4 Utilisation
MegaTTS3 ByteDance Premium Slow 2 8GB Apache 2.0 4 Utilisation

La plate-forme de texte à discours la plus complète de l'IA

Pourquoi choisir TTS.ai pour le texte à la parole?

TTS.ai rassemble les meilleurs modèles open-source text-to-speech du monde dans une plate-forme unique et facile à utiliser. Contrairement aux services propriétaires qui vous verrouillent dans un seul moteur vocal, TTS.ai vous donne accès à 20+ modèles de grands laboratoires de recherche dont Coqui, MyShell, Amphion, NVIDIA, Suno, HuggingFace, Tsinghua University, et plus encore.

Chaque modèle est open source sous MIT, Apache 2.0, ou licences permissives similaires, garantissant que vous avez tous les droits commerciaux d'utiliser l'audio généré dans vos projets. Que vous ayez besoin d'une synthèse rapide et légère pour des applications en temps réel ou une sortie studio de qualité supérieure pour les livres audio et podcasts, TTS.ai a le modèle approprié pour chaque cas d'utilisation.

Modèles gratuits, aucun compte requis

Commencez immédiatement avec trois modèles TTS gratuits : Piper (ultra-rapide, léger), VITS (synthèse neuronale de haute qualité) et MeloTTS (assistance multi-langue). Pas d'inscription, pas de carte de crédit, pas de limite sur les générations.

Traitement accéléré par GPU

Tous les modèles TTS fonctionnent sur des GPU NVIDIA dédiés pour des temps de génération rapides et cohérents. Les modèles gratuits génèrent généralement de l'audio en moins de 2 secondes. Les modèles standard comme Kokoro, CosyVoice 2 et Bark en moyenne 3-5 secondes.

30+ Langues prises en charge

Générer un discours en plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le hindi, le russe, etc. Plusieurs modèles soutiennent la synthèse cross-lingual, ce qui signifie que vous pouvez générer un discours dans une langue sur laquelle la voix originale n'a jamais été formée.

API Developer-Ready

Intégrez TTS.ai dans vos applications avec notre API REST compatible OpenAI. Un paramètre pour tous les modèles 20+. Python, JavaScript, cURL et Go SDKs. Support en streaming pour les applications en temps réel. Traitement par lots pour la génération de contenu à grande échelle. Webhooks pour les notifications asynchrones. Disponible sur les plans Pro et Enterprise.

Foire aux questions

Les modèles TTS neuraux modernes comme Kokoro, Chatterbox et CosyVoice 2 utilisent l'apprentissage profond pour produire un discours qui sonne remarquablement humain, avec la prosodie naturelle, l'émotion et le rythme.

Pour les prévisualisations rapides, utilisez Piper ou MeloTTS (gratuit, rapide). Pour une qualité élevée, essayez Kokoro ou CosyVoice 2 (niveau standard). Pour le clonage vocal, utilisez Chatterbox ou GPT-SoviTS (primium). Pour le contenu de dialogue/podcast, essayez Dia TTS. Chaque modèle a différentes forces — expérience pour trouver le meilleur ajustement.

Oui! TTS.ai offre un sms-to-speech gratuit avec les modèles Kokoro, Piper, VITS et MeloTTS. Aucun compte requis pour jusqu'à 500 caractères et 3 générations par heure. Inscrivez-vous pour un compte gratuit pour obtenir 50 crédits et accéder à tous les modèles.

Nos modèles TTS supportent collectivement plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le russe, le hindi, et bien d'autres encore.

Oui, l'audio généré par TTS.ai peut être utilisé commercialement. Tous nos modèles utilisent des licences open-source (MIT, Apache 2.0). Vérifiez les licences de modèles individuelles pour des termes spécifiques. Nous vous recommandons d'examiner la licence du modèle spécifique que vous utilisez pour votre projet.

TTS.ai prend en charge les formats de sortie MP3, WAV, OGG et FLAC. MP3 est la valeur par défaut pour la lecture web. WAV est recommandé pour un traitement audio ultérieur.

Le clonage vocal utilise l'IA pour reproduire une voix spécifique à partir d'un court échantillon audio (généralement de 5 à 30 secondes). Télécharger un enregistrement clair de la voix cible, et des modèles comme Chatterbox, GPT-SoVITS ou OpenVoice généreront une nouvelle voix dans cette voix. La qualité s'améliore avec un son de référence plus propre et plus long.

Les utilisateurs libres peuvent générer jusqu'à 500 caractères par demande. Les utilisateurs enregistrés peuvent obtenir jusqu'à 5 000 caractères par demande. Pour les textes plus longs, l'audio est généré en morceaux et cousu automatiquement. Les utilisateurs de l'API peuvent traiter jusqu'à 10 000 caractères par demande.

Le support SSML (Speech Synthesis Markup Language) varie selon le modèle. Piper et d'autres modèles prennent en charge les balises SSML de base pour les pauses, l'accent et le contrôle de prononciation. Pour les modèles sans support SSML natif, vous pouvez utiliser la ponctuation naturelle et les ruptures de ligne pour influencer la prosody.

Oui, la plupart des modèles prennent en charge le réglage de la vitesse de 0.5x à 2.0x. Certains modèles comme Bark et Parler permettent également le contrôle de la hauteur et du style. Vous pouvez définir des paramètres de vitesse dans le panneau de paramètres avancés ou via le paramètre de vitesse de l'API.

Oui, le traitement par lots est disponible via notre API. Vous pouvez soumettre plusieurs segments de texte dans un seul appel ou script d'API, et chacun sera traité et retourné en fichiers audio séparés. Ceci est idéal pour les chapitres audiobook, les modules d'apprentissage en ligne ou les scripts de dialogue de jeu.

Générez une clé API à partir de votre tableau de bord de compte, puis envoyez des requêtes POST à notre point d'arrivée de l'API REST avec vos paramètres texte, modèle et voix. Nous fournissons des exemples de code dans Python, JavaScript et cURL. L'API est compatible OpenAI, de sorte que les intégrations existantes fonctionnent avec des changements minimes.
5.0/5 (2)

Que pourrions-nous améliorer? Vos commentaires nous aident à résoudre les problèmes.

Commencer à convertir le texte en discours maintenant

Rejoignez des milliers de créateurs en utilisant TTS.ai. Obtenez 15 000 caractères gratuits avec un nouveau compte. Modèles gratuits disponibles sans inscription.