Texte AI au discours

Convertissez le texte en langage naturel avec des modèles d'IA open-source. Gratuit à utiliser, aucun compte n'est requis.

0/500 caractères
Inscrivez-vous pour la limite de 5 000 caractères

Enveloppez votre texte dans des balises SSML pour un contrôle précis :

<speak><prosody rate="slow">Slow speech</prosody></speak>

Ajouter des marqueurs d'émotion pour influencer la livraison (le support du modèle varie):

Définir les prononciations personnalisées (mot = prononciation) :

-12 +12
0.5x 2.0x
Gratuit avec Piper, VITS, MeloTTS
Votre audio généré apparaîtra ici. Choisissez un modèle, entrez le texte et cliquez sur Générer.
Production audio réussie
0:00 0:00
Télécharger l'audio Lien expire en 24h
Comme TTS.ai? Dites à vos amis!

Détails du modèle

Kitten TTS

Kitten TTS

Free

Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.

Développeur & #160;: KittenML
Licence & #160;: Apache 2.0
Régime Fast
Qualité:
langues 1 langue
VRAM 0GB
Clonage de la voix Non pris en charge
Caractéristiques:
CPU-only inference Under 80MB model size 8 built-in voices Speed control ONNX-based 24kHz output
Meilleur pour:: Fast lightweight TTS, edge deployment, low-latency applications

Conseils pour de meilleurs résultats

  • Utiliser la ponctuation appropriée pour les pauses naturelles et l'intonation
  • Épelez les nombres et les abréviations pour une prononciation plus claire
  • Ajouter des virgules pour créer de courtes pauses entre les phrases
  • Utilisez l'ellipsie (...) pour des pauses dramatiques plus longues
  • Essayez Kokoro ou CosyVoice 2 pour les résultats les plus naturels
  • Utiliser Dia pour la boîte de dialogue multi haut-parleurs et le contenu podcast

Utilisation des caractères

Niveau Coût par 1 000 ombles
Gratuit 0 crédits (limités)
Norme 2 crédits / 1 000 caractères
Prime 4 crédits / 1 000 caractères

Comment fonctionne le texte d'IA pour parler

Générer des voix-overs de qualité professionnelle en trois étapes simples. Aucune connaissance technique requise.

Étape 1

Saisissez votre texte

Tapez, collez ou téléchargez le texte que vous souhaitez convertir en parole. Il supporte jusqu'à 5 000 caractères par génération pour les utilisateurs connectés. Utilisez du texte simple ou ajoutez des balises SSML pour un contrôle avancé de la prononciation, des pauses et de l'accent.

Étape 2

Choisissez Modèle & Voix

Choisissez une voix qui correspond à votre contenu, choisissez votre langue cible, ajustez la vitesse de lecture de 0,5x à 2,0x et sélectionnez votre format de sortie préféré (MP3, WAV, OGG ou FLAC).

Étape 3

Générer et télécharger

Cliquez sur Générer et votre audio est prêt en quelques secondes. Prévisualiser avec le lecteur intégré, télécharger dans le format choisi, ou copier un lien partageable. Utilisez l'API pour le traitement par lots et l'intégration dans votre workflow.

Text to Speech Use Cases

Le text-to-speech de l'IA transforme la façon dont les gens créent, consomment et interagissent avec le contenu audio dans des dizaines d'industries.

Tous les modèles texte à discours

Spécifications détaillées pour chaque modèle d'IA disponible sur TTS.ai. Comparez la qualité, la vitesse, le support linguistique et les fonctionnalités pour trouver le modèle parfait pour votre projet.

KokoroKokoro

Free

Kokoro est un modèle text-to-speech de 82 millions de paramètres qui frappe bien au-dessus de sa classe de poids. Malgré sa petite taille, il produit un langage remarquablement naturel et expressif. Kokoro prend en charge plusieurs langues dont l'anglais, le japonais, le chinois et le coréen avec une variété de voix expressives.

Développeur & #160;::
Hexgrad
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
VRAM:
1.5GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Paramètres 82M Ultra-rapide Voix expressives Multilingue Appui à la diffusion de l'information
Meilleur pour:: TTS de haute qualité avec latence minimale, applications de streaming

PiperPiper

Free

Piper est un moteur text-to-speech léger développé par Rhasspy qui utilise les architectures VITS et larynx. Il fonctionne entièrement sur CPU, ce qui le rend idéal pour les périphériques de bord, la domotique et les applications nécessitant TTS hors ligne. Avec plus de 100 voix dans plus de 30 langues, Piper offre un langage sonore naturel à des vitesses en temps réel même sur un Raspberry Pi 4.

Développeur & #160;::
Rhasspy
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
VRAM:
0 (CPU only)
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
CPU-friendly Offline capable Plus de 100 voix 30+ langues Appui au SSML
Meilleur pour:: Aperçus rapides, accessibilité et applications intégrées

VITSVITS

Free

VITS (Variational Inférence with adversarial learning for de bout en bout Text-to-Speech) est une méthode TTS parallèle de bout en bout qui génère plus de sonorisation naturelle que les modèles en deux étapes actuels. Il adopte l'inférence variationnelle augmentée avec des flux de normalisation et un processus de formation contradictoire, permettant une amélioration significative de la naturalité.

Développeur & #160;::
Jaehyeon Kim et al.
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, zh, ja, ko
VRAM:
1GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Synthèse de bout en bout Prosodie naturelle Inférence rapide Haut-parleurs multiples
Meilleur pour:: Texte à usage général avec prosodie naturelle

MeloTTSMeloTTS

Free

MeloTTS by MyShell.ai est une bibliothèque multilingue TTS qui soutient l'anglais (américain, britannique, indien, australien), l'espagnol, le français, le chinois, le japonais et le coréen. Il est extrêmement rapide, le traitement du texte à une vitesse presque en temps réel sur CPU seul. MeloTTS est conçu pour l'utilisation de la production et supporte à la fois l'inférence CPU et GPU.

Développeur & #160;::
MyShell.ai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues:
en, es, fr, zh, ja, ko
VRAM:
0.5GB (GPU optional)
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
Optimisé par le CPU Multilingue Accents multiples Prête à la production Faible latence
Meilleur pour:: Applications de production nécessitant des TTS rapides et multilingues

BarkBark

Standard

Bark by Suno est un modèle text-to-audio basé sur un transformateur qui peut générer une parole très réaliste, multilingue ainsi que d'autres audio comme la musique, le bruit de fond et les effets sonores. Il peut produire des communications non verbales comme rire, soupirer et pleurer. Bark supporte plus de 100 presets de haut-parleurs et 13+ langues.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
VRAM:
5GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Effets sonores Rire/soupir Génération de musique Plus de 100 orateurs Multilingue
Meilleur pour:: Contenu audio créatif, livres audio avec émotion, effets sonores

Bark SmallBark Small

Standard

Bark Small est une version distillée du modèle Bark qui échange une certaine qualité audio pour des vitesses d'inférence considérablement plus rapides et des exigences de mémoire plus faibles. Il conserve la capacité de Bark à générer la parole avec des émotions, des rires et plusieurs langues.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
VRAM:
2GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Légèreté Plus rapide que l'écorce complète Discours émotionnel Multilingue
Meilleur pour:: Audio créatif rapide quand le Bark plein est trop lent

CosyVoice 2CosyVoice 2

Standard

CosyVoice 2 du Tongyi Lab d'Alibaba atteint une qualité de parole comparable à l'homme avec une latence extrêmement faible, ce qui le rend idéal pour les applications en temps réel. Il utilise une approche de quantification scalaire finie pour la synthèse en streaming et prend en charge le clonage vocal zéro-shot, la synthèse cross-lingual et le contrôle des émotions à grain fin.

Développeur & #160;::
Alibaba (Tongyi Lab)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, it, es
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Streaming Closonnage zéro-shot Linguistique translingue Contrôle de l'émotion Parité humaine
Meilleur pour:: Applications en temps réel, streaming TTS, assistants vocaux

Dia TTSDia TTS

Standard

Dia by Nari Labs est un modèle text-to-speech de 1.6B conçu spécifiquement pour générer le dialogue multi-parleurs. Il peut produire des conversations sonores naturelles entre deux haut-parleurs avec des prises de vues appropriées, la prosodie, et l'expression émotionnelle. Dia est parfait pour créer des contenus de style podcast, des dialogues audiobooks, et l'IA conversationnelle interactive.

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Haut-parleurs multiples Génération de dialogues Tournage naturel Expression émotionnelle Paramètres 1.6B
Meilleur pour:: Podcasts, dialogues audiobooks, contenu conversationnel

Parler TTSParler TTS

Standard

Parler TTS est un modèle texte-à-discours qui utilise des descriptions vocales en langage naturel pour contrôler la parole générée. Au lieu de sélectionner à partir de voix prédéfinies, vous décrivez la voix que vous voulez (par exemple, «une voix féminine chaude avec un léger accent britannique, parlant lentement et clairement») et Parler génère une correspondance vocale avec cette description.

Développeur & #160;::
Hugging Face
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
Description de la voix Contrôle du langage naturel Création vocale flexible Pas de voix prédéfinies nécessaires
Meilleur pour:: Applications créatives où vous avez besoin de caractéristiques vocales personnalisées

GLM-TTSGLM-TTS

Standard

GLM-TTS de Zhipu AI est un système texte-à-discours construit sur l'architecture Llama avec un écoulement correspondant. Il atteint le taux d'erreur de caractères le plus bas parmi les modèles TTS open-source, ce qui signifie qu'il produit la prononciation la plus précise. GLM-TTS prend en charge l'anglais et le chinois avec le clonage vocal de 3-10 échantillons audio secondes.

Développeur & #160;::
Zhipu AI
Licence & #160;::
GLM-4 License
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Taux d'erreur le plus bas Closonnage de la voix Correspondance des flux Prosodie naturelle
Meilleur pour:: Demandes nécessitant une précision maximale de prononciation

IndexTTS-2IndexTTS-2

Standard

IndexTTS-2 est un système texto-speech avancé qui excelle à la synthèse vocale zéro-shot avec un contrôle de l'émotion fine-grain. Il peut générer la parole avec des tons émotionnels spécifiques comme heureux, triste, en colère, ou craintif sans exiger des données d'entraînement spécifiques à l'émotion. Le modèle utilise des vecteurs d'émotion pour contrôler précisément l'expression émotionnelle de la parole générée.

Développeur & #160;::
Index Team
Licence & #160;::
Bilibili Model License
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Contrôle de l'émotion Cap zéro Vecteurs d'émotion Discours express Contrôle à grains fins
Meilleur pour:: Contenu expressif émotionnel, livres audio, assistants virtuels

Spark TTSSpark TTS

Standard

Spark TTS de SparkAudio est un modèle text-to-speech qui combine le clonage de la voix avec une émotion contrôlable et un style de parole. En utilisant seulement 5 secondes d'audio de référence, il peut cloner une voix puis générer une parole avec des émotions, des vitesses et des styles différents tout en conservant l'identité vocale clonée.

Développeur & #160;::
SparkAudio
Licence & #160;::
CC BY-NC-SA 4.0
Régime:
Medium
Qualité::
langues:
en, zh
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Closonnage de la voix Contrôle de l'émotion Contrôle de style Sur la base d'un système rapide 5 secondes de clonage
Meilleur pour:: Création de contenu avec voix clonées et contrôle émotionnel

GPT-SoVITSGPT-SoVITS

Standard

GPT-SoVITS combine la modélisation de langage de style GPT avec SoVITS (Sing Voice Inference via Translation and Synthesis) pour le clonage de voix puissant à faible résolution. Avec aussi peu que 5 secondes d'audio de référence, il peut cloner avec précision une voix et générer de nouveaux discours tout en préservant les caractéristiques uniques de l'orateur. Il excelle à la fois à parler et à chanter la synthèse vocale.

Développeur & #160;::
RVC-Boss
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, ja, ko
VRAM:
6GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
5 secondes de clonage Voix chantante Apprentissage à petite échelle Haute fidélité Linguistique translingue
Meilleur pour:: Closonnage vocal, synthèse chantante, réplication vocale créatrice de contenu

OrpheusOrpheus

Standard

Orphée est un modèle à grande échelle texte-à-discours qui atteint l'expression émotionnelle au niveau humain. Formé sur plus de 100 000 heures de diverses données de la parole, il excelle dans la génération de la parole avec des émotions naturelles, l'accent, et les styles de parole. Orphée peut produire une parole qui est pratiquement indistinguable des enregistrements humains.

Développeur & #160;::
Canopy Labs
Licence & #160;::
Llama 3.2 Community
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
2x
émotion au niveau de l'homme Formation de 100 K heures L'accent sur la nature Discours express
Meilleur pour:: Expression émotionnelle de haute qualité, livres audio, voix agissante

ChatterboxChatterbox

Premium

Chatterbox by Resemble AI est un modèle de clonage vocal à capture nulle de pointe. Il peut reproduire n'importe quelle voix à partir d'un seul échantillon audio avec une précision remarquable, captant non seulement le timbre, mais aussi le style de parole et les nuances émotionnelles. Chatterbox dispose également d'un contrôle de l'émotion à grain fin, vous permettant d'ajuster le ton émotionnel du discours généré indépendamment de l'identité vocale.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Closonnage zéro-shot Contrôle de l'émotion Haute fidélité Transfert de style Un seul échantillon de clonage
Meilleur pour:: Closonnage vocal professionnel avec contrôle émotionnel, création de contenu

Tortoise TTSTortoise TTS

Premium

Tortoise TTS est un système autorégressif de texte à parole multivoix qui priorise la qualité audio sur la vitesse. Il utilise l'architecture inspirée de DALL-E pour générer une parole très naturelle avec une excellente prosody et une similarité de haut-parleur. Bien que plus lent que de nombreuses alternatives, Tortoise produit une partie de la parole synthétique la plus réaliste disponible dans l'écosystème open-source.

Développeur & #160;::
James Betker
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
VRAM:
8GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Qualité la plus élevée Multi-voix Architecture DALL-E Closonnage de la voix Autorégression
Meilleur pour:: Livres audio, contenu premium, applications de qualité

StyleTTS 2StyleTTS 2

Premium

StyleTTS 2 réalise une synthèse TTS à l'échelle humaine en combinant diffusion de style et formation contradictoire à l'aide de modèles de langage de langage de grande taille. Il génère la parole la plus naturelle parmi les modèles de langage mono-parleur, rivalisant avec les enregistrements humains. StyleTTS 2 utilise la modélisation de style basée sur la diffusion pour capturer toute la gamme de variations de la parole humaine.

Développeur & #160;::
Columbia University
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
VRAM:
4GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
4x
Niveau humain Diffusion de style Formation de l'adversaire Variation naturelle Haute fidélité
Meilleur pour:: Synthèse d'un seul haut-parleur de qualité Studio, narration professionnelle

OpenVoiceOpenVoice

Premium

OpenVoice by MyShell.ai permet le clonage instantané de la voix avec contrôle granulaire sur le style vocal, l'émotion, l'accent, le rythme, les pauses et l'intonation. Il peut cloner une voix à partir d'un court clip audio et générer la parole en plusieurs langues tout en conservant l'identité de l'enceinte. OpenVoice fonctionne également comme un convertisseur vocal, permettant la transformation vocale en temps réel.

Développeur & #160;::
MyShell.ai / MIT
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, es, it
VRAM:
4GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
4x
Closonnage instantané Conversion vocale Contrôle de l'émotion Contrôle rapide Multilingue
Meilleur pour:: Closonnage vocal avec contrôle de style à grain fin, conversion vocale

Qwen3 TTSQwen3 TTS

Standard

Qwen3-TTS est un modèle de texte à parole de 1,7 milliard de paramètres de l'équipe Qwen d'Alibaba. Il prend en charge trois modes : voix prédéfinies avec contrôle d'émotion (9 haut-parleurs), clonage de la voix à partir de seulement 3 secondes d'audio, et un mode de conception de la voix unique où vous décrivez la voix que vous voulez en langage naturel.

Développeur & #160;::
Alibaba (Qwen)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, de, fr, ru, pt, es, it
VRAM:
7GB
Clonage de la voix:
Oui
Coût par 1 000 ombles:
2x
Closonnage de la voix 9 voix prédéfinies Conception vocale à partir du texte Contrôle de l'émotion 10 langues
Meilleur pour:: Contenu multilingue avec clonage vocal ou design vocal personnalisé

Sesame CSMSesame CSM

Premium

Sésame CSM (Conversational Speech Model) est un modèle de 1 milliard de paramètres conçu spécifiquement pour générer la parole conversationnelle. Il modélise les modèles naturels de conversation humaine, y compris le timing tour à tour, les réponses des canaux arrière, les réactions émotionnelles et le flux conversationnel.

Développeur & #160;::
Sesame
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
VRAM:
8GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
4x
Conversationnel Calendrier naturel Tournage Canal arrière Paramètres 1B
Meilleur pour:: Assistants AI, chatbots, applications d'IA conversationnelles

Kitten TTSKitten TTS

Free

Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.

Développeur & #160;::
KittenML
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues:
en
VRAM:
0GB
Clonage de la voix:
Numéro
Coût par 1 000 ombles:
Gratuit
CPU-only inference Under 80MB model size 8 built-in voices Speed control ONNX-based 24kHz output
Meilleur pour:: Fast lightweight TTS, edge deployment, low-latency applications

KokoroKokoro

Gratuit

Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.

Développeur & #160;::
Hexgrad
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues: en, ja, zh, ko, fr, de, it, pt, es, hi, ru
Meilleur pour:: High-quality TTS with minimal latency, streaming applications

PiperPiper

Gratuit

Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.

Développeur & #160;::
Rhasspy
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
Meilleur pour:: Quick previews, accessibility, and embedded applications

VITSVITS

Gratuit

VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.

Développeur & #160;::
Jaehyeon Kim et al.
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, zh, ja, ko
Meilleur pour:: General-purpose text-to-speech with natural prosody

MeloTTSMeloTTS

Gratuit

MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.

Développeur & #160;::
MyShell.ai
Licence & #160;::
MIT
Régime:
Fast
Qualité::
langues: en, es, fr, zh, ja, ko
Meilleur pour:: Production applications needing fast, multilingual TTS

Kitten TTSKitten TTS

Gratuit

Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.

Développeur & #160;::
KittenML
Licence & #160;::
Apache 2.0
Régime:
Fast
Qualité::
langues: en
Meilleur pour:: Fast lightweight TTS, edge deployment, low-latency applications

BarkBark

Norme

Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Clonage de la voix:
Numéro
Sound effectsLaughing/sighingMusic generation100+ speakersMultilingual
Meilleur pour:: Creative audio content, audiobooks with emotion, sound effects

Bark SmallBark Small

Norme

Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.

Développeur & #160;::
Suno
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Clonage de la voix:
Numéro
LightweightFaster than full BarkEmotional speechMultilingual
Meilleur pour:: Quick creative audio when full Bark is too slow

CosyVoice 2CosyVoice 2

Norme

CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.

Développeur & #160;::
Alibaba (Tongyi Lab)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, it, es
Clonage de la voix:
Oui
StreamingZero-shot cloningCross-lingualEmotion controlHuman-parity
Meilleur pour:: Real-time applications, streaming TTS, voice assistants

Dia TTSDia TTS

Norme

Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.

Développeur & #160;::
Nari Labs
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Multi-speakerDialog generationNatural turn-takingEmotional expression1.6B parameters
Meilleur pour:: Podcasts, audiobook dialogues, conversational content

Parler TTSParler TTS

Norme

Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.

Développeur & #160;::
Hugging Face
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Voice descriptionNatural language controlFlexible voice creationNo preset voices needed
Meilleur pour:: Creative applications where you need custom voice characteristics

GLM-TTSGLM-TTS

Norme

GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.

Développeur & #160;::
Zhipu AI
Licence & #160;::
GLM-4 License
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Lowest error rateVoice cloningFlow matchingNatural prosody
Meilleur pour:: Applications requiring maximum pronunciation accuracy

IndexTTS-2IndexTTS-2

Norme

IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.

Développeur & #160;::
Index Team
Licence & #160;::
Bilibili Model License
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Emotion controlZero-shotEmotion vectorsExpressive speechFine-grained control
Meilleur pour:: Emotionally expressive content, audiobooks, virtual assistants

Spark TTSSpark TTS

Norme

Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.

Développeur & #160;::
SparkAudio
Licence & #160;::
CC BY-NC-SA 4.0
Régime:
Medium
Qualité::
langues:
en, zh
Clonage de la voix:
Oui
Voice cloningEmotion controlStyle controlPrompt-based5-second cloning
Meilleur pour:: Content creation with cloned voices and emotional control

GPT-SoVITSGPT-SoVITS

Norme

GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.

Développeur & #160;::
RVC-Boss
Licence & #160;::
MIT
Régime:
Slow
Qualité::
langues:
en, zh, ja, ko
Clonage de la voix:
Oui
5-second cloningSinging voiceFew-shot learningHigh fidelityCross-lingual
Meilleur pour:: Voice cloning, singing synthesis, content creator voice replication

OrpheusOrpheus

Norme

Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.

Développeur & #160;::
Canopy Labs
Licence & #160;::
Llama 3.2 Community
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
Human-level emotion100K hours trainingNatural emphasisExpressive speech
Meilleur pour:: High-quality emotional speech, audiobooks, voice acting

Qwen3 TTSQwen3 TTS

Norme

Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.

Développeur & #160;::
Alibaba (Qwen)
Licence & #160;::
Apache 2.0
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, de, fr, ru, pt, es, it
Clonage de la voix:
Oui
Voice cloning9 preset voicesVoice design from textEmotion control10 languages
Meilleur pour:: Multilingual content with voice cloning or custom voice design

ChatterboxChatterbox

Prime

Chatterbox by Resemble AI is a cutting-edge zero-shot voice cloning model. It can replicate any voice from a single audio sample with remarkable accuracy, capturing not just the timbre but also the speaking style and emotional nuances. Chatterbox also features fine-grained emotion control, allowing you to adjust the emotional tone of the generated speech independently from the voice identity.

Développeur & #160;::
Resemble AI
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Oui
VRAM:
4GB
Coût par 1 000 ombles:
4x
Zero-shot cloningEmotion controlHigh fidelityStyle transferSingle sample cloning
Meilleur pour:: Professional voice cloning with emotional control, content creation

Tortoise TTSTortoise TTS

Prime

Tortoise TTS is an autoregressive multi-voice text-to-speech system that prioritizes audio quality over speed. It uses DALL-E-inspired architecture to generate highly natural speech with excellent prosody and speaker similarity. While slower than many alternatives, Tortoise produces some of the most realistic synthetic speech available in the open-source ecosystem.

Développeur & #160;::
James Betker
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
Clonage de la voix:
Oui
VRAM:
8GB
Coût par 1 000 ombles:
4x
Highest qualityMulti-voiceDALL-E architectureVoice cloningAutoregressive
Meilleur pour:: Audiobooks, premium content, quality-first applications

StyleTTS 2StyleTTS 2

Prime

StyleTTS 2 achieves human-level TTS synthesis by combining style diffusion with adversarial training using large speech language models. It generates the most natural sounding speech among single-speaker models, rivaling human recordings. StyleTTS 2 uses diffusion-based style modeling to capture the full range of human speech variation.

Développeur & #160;::
Columbia University
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en
Clonage de la voix:
Numéro
VRAM:
4GB
Coût par 1 000 ombles:
4x
Human-levelStyle diffusionAdversarial trainingNatural variationHigh fidelity
Meilleur pour:: Studio-quality single-speaker synthesis, professional narration

OpenVoiceOpenVoice

Prime

OpenVoice by MyShell.ai enables instant voice cloning with granular control over voice style, emotion, accent, rhythm, pauses, and intonation. It can clone a voice from a short audio clip and generate speech in multiple languages while maintaining the speaker identity. OpenVoice also functions as a voice converter, allowing real-time voice transformation.

Développeur & #160;::
MyShell.ai / MIT
Licence & #160;::
MIT
Régime:
Medium
Qualité::
langues:
en, zh, ja, ko, fr, de, es, it
Clonage de la voix:
Oui
VRAM:
4GB
Coût par 1 000 ombles:
4x
Instant cloningVoice conversionEmotion controlAccent controlMultilingual
Meilleur pour:: Voice cloning with fine-grained style control, voice conversion

Sesame CSMSesame CSM

Prime

Sesame CSM (Conversational Speech Model) is a 1 billion parameter model designed specifically for generating conversational speech. It models the natural patterns of human conversation including turn-taking timing, backchannel responses, emotional reactions, and conversational flow. CSM generates audio that sounds like a natural human conversation rather than synthetic speech.

Développeur & #160;::
Sesame
Licence & #160;::
Apache 2.0
Régime:
Slow
Qualité::
langues:
en
Clonage de la voix:
Numéro
VRAM:
8GB
Coût par 1 000 ombles:
4x
ConversationalNatural timingTurn-takingBackchannel1B parameters
Meilleur pour:: AI assistants, chatbots, conversational AI applications

Tableau de comparaison du modèle

Modèle Développeur & #160;: Niveau Qualité: Régime langues Clonage de la voix VRAM Licence & #160;: Crédits ouverts
Kokoro Hexgrad Free Fast 11 1.5GB Apache 2.0 Gratuit Utilisation
Piper Rhasspy Free Fast 31 0 (CPU only) MIT Gratuit Utilisation
VITS Jaehyeon Kim et al. Free Fast 4 1GB MIT Gratuit Utilisation
MeloTTS MyShell.ai Free Fast 6 0.5GB (GPU optional) MIT Gratuit Utilisation
Bark Suno Standard Slow 13 5GB MIT 2 Utilisation
Bark Small Suno Standard Medium 13 2GB MIT 2 Utilisation
CosyVoice 2 Alibaba (Tongyi Lab) Standard Medium 8 4GB Apache 2.0 2 Utilisation
Dia TTS Nari Labs Standard Medium 1 4GB Apache 2.0 2 Utilisation
Parler TTS Hugging Face Standard Medium 1 4GB Apache 2.0 2 Utilisation
GLM-TTS Zhipu AI Standard Medium 2 4GB GLM-4 License 2 Utilisation
IndexTTS-2 Index Team Standard Medium 2 4GB Bilibili Model License 2 Utilisation
Spark TTS SparkAudio Standard Medium 2 4GB CC BY-NC-SA 4.0 2 Utilisation
GPT-SoVITS RVC-Boss Standard Slow 4 6GB MIT 2 Utilisation
Orpheus Canopy Labs Standard Medium 1 4GB Llama 3.2 Community 2 Utilisation
Chatterbox Resemble AI Premium Medium 1 4GB MIT 4 Utilisation
Tortoise TTS James Betker Premium Slow 1 8GB Apache 2.0 4 Utilisation
StyleTTS 2 Columbia University Premium Medium 1 4GB MIT 4 Utilisation
OpenVoice MyShell.ai / MIT Premium Medium 8 4GB MIT 4 Utilisation
Qwen3 TTS Alibaba (Qwen) Standard Medium 10 7GB Apache 2.0 2 Utilisation
Sesame CSM Sesame Premium Slow 1 8GB Apache 2.0 4 Utilisation
Kitten TTS KittenML Free Fast 1 0GB Apache 2.0 Gratuit Utilisation

La plate-forme de texte à discours la plus complète de l'IA

Pourquoi choisir TTS.ai pour le texte à la parole?

TTS.ai rassemble les meilleurs modèles open-source text-to-speech du monde dans une plate-forme unique et facile à utiliser. Contrairement aux services propriétaires qui vous verrouillent dans un seul moteur vocal, TTS.ai vous donne accès à 20+ modèles de grands laboratoires de recherche dont Coqui, MyShell, Amphion, NVIDIA, Suno, HuggingFace, Tsinghua University, et plus encore.

Chaque modèle est open source sous MIT, Apache 2.0, ou licences permissives similaires, garantissant que vous avez tous les droits commerciaux d'utiliser l'audio généré dans vos projets. Que vous ayez besoin d'une synthèse rapide et légère pour des applications en temps réel ou une sortie studio de qualité supérieure pour les livres audio et podcasts, TTS.ai a le modèle approprié pour chaque cas d'utilisation.

Modèles gratuits, aucun compte requis

Commencez immédiatement avec trois modèles TTS gratuits : Piper (ultra-rapide, léger), VITS (synthèse neuronale de haute qualité) et MeloTTS (assistance multi-langue). Pas d'inscription, pas de carte de crédit, pas de limite sur les générations.

Traitement accéléré par GPU

Tous les modèles TTS fonctionnent sur des GPU NVIDIA dédiés pour des temps de génération rapides et cohérents. Les modèles gratuits génèrent généralement de l'audio en moins de 2 secondes. Les modèles standard comme Kokoro, CosyVoice 2 et Bark en moyenne 3-5 secondes.

30+ Langues prises en charge

Générer un discours en plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le hindi, le russe, etc. Plusieurs modèles soutiennent la synthèse cross-lingual, ce qui signifie que vous pouvez générer un discours dans une langue sur laquelle la voix originale n'a jamais été formée.

API Developer-Ready

Intégrez TTS.ai dans vos applications avec notre API REST compatible OpenAI. Un paramètre pour tous les modèles 20+. Python, JavaScript, cURL et Go SDKs. Support en streaming pour les applications en temps réel. Traitement par lots pour la génération de contenu à grande échelle. Webhooks pour les notifications asynchrones. Disponible sur les plans Pro et Enterprise.

Foire aux questions

Les modèles TTS neuraux modernes comme Kokoro, Chatterbox et CosyVoice 2 utilisent l'apprentissage profond pour produire un discours qui sonne remarquablement humain, avec la prosodie naturelle, l'émotion et le rythme.

Pour les prévisualisations rapides, utilisez Piper ou MeloTTS (gratuit, rapide). Pour une qualité élevée, essayez Kokoro ou CosyVoice 2 (niveau standard). Pour le clonage vocal, utilisez Chatterbox ou GPT-SoviTS (primium). Pour le contenu de dialogue/podcast, essayez Dia TTS. Chaque modèle a différentes forces — expérience pour trouver le meilleur ajustement.

Oui! TTS.ai offre un sms-to-speech gratuit avec les modèles Kokoro, Piper, VITS et MeloTTS. Aucun compte requis pour jusqu'à 500 caractères et 3 générations par heure. Inscrivez-vous pour un compte gratuit pour obtenir 50 crédits et accéder à tous les modèles.

Nos modèles TTS supportent collectivement plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le russe, le hindi, et bien d'autres encore.

Oui, l'audio généré par TTS.ai peut être utilisé commercialement. Tous nos modèles utilisent des licences open-source (MIT, Apache 2.0). Vérifiez les licences de modèles individuelles pour des termes spécifiques. Nous vous recommandons de revoir la licence du modèle spécifique que vous utilisez pour votre projet.

TTS.ai prend en charge les formats de sortie MP3, WAV, OGG et FLAC. MP3 est la valeur par défaut pour la lecture web. WAV est recommandé pour un traitement audio ultérieur.

Le clonage vocal utilise l'IA pour reproduire une voix spécifique à partir d'un court échantillon audio (généralement de 5 à 30 secondes). Télécharger un enregistrement clair de la voix cible, et des modèles comme Chatterbox, GPT-SoVITS ou OpenVoice généreront une nouvelle voix dans cette voix. La qualité s'améliore avec un son de référence plus propre et plus long.

Les utilisateurs libres peuvent générer jusqu'à 500 caractères par demande. Les utilisateurs enregistrés peuvent obtenir jusqu'à 5 000 caractères par demande. Pour les textes plus longs, l'audio est généré en morceaux et cousu automatiquement. Les utilisateurs de l'API peuvent traiter jusqu'à 10 000 caractères par demande.

Le support SSML (Speech Synthesis Markup Language) varie selon le modèle. Piper et d'autres modèles prennent en charge les balises SSML de base pour les pauses, l'accent et le contrôle de prononciation. Pour les modèles sans support SSML natif, vous pouvez utiliser la ponctuation naturelle et les ruptures de ligne pour influencer la prosody.

Oui, la plupart des modèles prennent en charge le réglage de la vitesse de 0.5x à 2.0x. Certains modèles comme Bark et Parler permettent également le contrôle de la hauteur et du style. Vous pouvez définir des paramètres de vitesse dans le panneau de paramètres avancés ou via le paramètre de vitesse de l'API.

Oui, le traitement par lots est disponible via notre API. Vous pouvez soumettre plusieurs segments de texte dans un seul appel ou script d'API, et chacun sera traité et retourné en fichiers audio séparés. Ceci est idéal pour les chapitres audiobook, les modules d'apprentissage en ligne ou les scripts de dialogue de jeu.

Générez une clé API à partir de votre tableau de bord de compte, puis envoyez des requêtes POST à notre point d'arrivée de l'API REST avec vos paramètres texte, modèle et voix. Nous fournissons des exemples de code dans Python, JavaScript et cURL. L'API est compatible OpenAI, de sorte que les intégrations existantes fonctionnent avec des changements minimes.
5.0/5 (2)

Que pourrions-nous améliorer? Vos commentaires nous aident à résoudre les problèmes.

Commencer à convertir le texte en discours maintenant

Rejoignez des milliers de créateurs en utilisant TTS.ai. Obtenez 15 000 caractères gratuits avec un nouveau compte. Modèles gratuits disponibles sans inscription.