Texte AI au discours
Convertissez le texte en langage naturel avec des modèles d'IA open-source. Gratuit à utiliser, aucun compte n'est requis.
Enveloppez votre texte dans des balises SSML pour un contrôle précis :
<speak><prosody rate="slow">Slow speech</prosody></speak>
Ajouter des marqueurs d'émotion pour influencer la livraison (le support du modèle varie):
Définir les prononciations personnalisées (mot = prononciation) :
Détails du modèle
Kitten TTS
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
| Développeur & #160;: | KittenML |
| Licence & #160;: | Apache 2.0 |
| Régime | Fast |
| Qualité: | |
| langues | 1 langue |
| VRAM | 0GB |
| Clonage de la voix | Non pris en charge |
Conseils pour de meilleurs résultats
- Utiliser la ponctuation appropriée pour les pauses naturelles et l'intonation
- Épelez les nombres et les abréviations pour une prononciation plus claire
- Ajouter des virgules pour créer de courtes pauses entre les phrases
- Utilisez l'ellipsie (...) pour des pauses dramatiques plus longues
- Essayez Kokoro ou CosyVoice 2 pour les résultats les plus naturels
- Utiliser Dia pour la boîte de dialogue multi haut-parleurs et le contenu podcast
Utilisation des caractères
| Niveau | Coût par 1 000 ombles |
|---|---|
| Gratuit | 0 crédits (limités) |
| Norme | 2 crédits / 1 000 caractères |
| Prime | 4 crédits / 1 000 caractères |
Comment fonctionne le texte d'IA pour parler
Générer des voix-overs de qualité professionnelle en trois étapes simples. Aucune connaissance technique requise.
Saisissez votre texte
Tapez, collez ou téléchargez le texte que vous souhaitez convertir en parole. Il supporte jusqu'à 5 000 caractères par génération pour les utilisateurs connectés. Utilisez du texte simple ou ajoutez des balises SSML pour un contrôle avancé de la prononciation, des pauses et de l'accent.
Choisissez Modèle & Voix
Choisissez une voix qui correspond à votre contenu, choisissez votre langue cible, ajustez la vitesse de lecture de 0,5x à 2,0x et sélectionnez votre format de sortie préféré (MP3, WAV, OGG ou FLAC).
Générer et télécharger
Cliquez sur Générer et votre audio est prêt en quelques secondes. Prévisualiser avec le lecteur intégré, télécharger dans le format choisi, ou copier un lien partageable. Utilisez l'API pour le traitement par lots et l'intégration dans votre workflow.
Text to Speech Use Cases
Le text-to-speech de l'IA transforme la façon dont les gens créent, consomment et interagissent avec le contenu audio dans des dizaines d'industries.
Tous les modèles texte à discours
Spécifications détaillées pour chaque modèle d'IA disponible sur TTS.ai. Comparez la qualité, la vitesse, le support linguistique et les fonctionnalités pour trouver le modèle parfait pour votre projet.
Kokoro
Free
Kokoro est un modèle text-to-speech de 82 millions de paramètres qui frappe bien au-dessus de sa classe de poids. Malgré sa petite taille, il produit un langage remarquablement naturel et expressif. Kokoro prend en charge plusieurs langues dont l'anglais, le japonais, le chinois et le coréen avec une variété de voix expressives.
Hexgrad
Apache 2.0
Fast
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
1.5GB
Numéro
Gratuit
Piper
Free
Piper est un moteur text-to-speech léger développé par Rhasspy qui utilise les architectures VITS et larynx. Il fonctionne entièrement sur CPU, ce qui le rend idéal pour les périphériques de bord, la domotique et les applications nécessitant TTS hors ligne. Avec plus de 100 voix dans plus de 30 langues, Piper offre un langage sonore naturel à des vitesses en temps réel même sur un Raspberry Pi 4.
Rhasspy
MIT
Fast
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
0 (CPU only)
Numéro
Gratuit
VITS
Free
VITS (Variational Inférence with adversarial learning for de bout en bout Text-to-Speech) est une méthode TTS parallèle de bout en bout qui génère plus de sonorisation naturelle que les modèles en deux étapes actuels. Il adopte l'inférence variationnelle augmentée avec des flux de normalisation et un processus de formation contradictoire, permettant une amélioration significative de la naturalité.
Jaehyeon Kim et al.
MIT
Fast
en, zh, ja, ko
1GB
Numéro
Gratuit
MeloTTS
Free
MeloTTS by MyShell.ai est une bibliothèque multilingue TTS qui soutient l'anglais (américain, britannique, indien, australien), l'espagnol, le français, le chinois, le japonais et le coréen. Il est extrêmement rapide, le traitement du texte à une vitesse presque en temps réel sur CPU seul. MeloTTS est conçu pour l'utilisation de la production et supporte à la fois l'inférence CPU et GPU.
MyShell.ai
MIT
Fast
en, es, fr, zh, ja, ko
0.5GB (GPU optional)
Numéro
Gratuit
Bark
Standard
Bark by Suno est un modèle text-to-audio basé sur un transformateur qui peut générer une parole très réaliste, multilingue ainsi que d'autres audio comme la musique, le bruit de fond et les effets sonores. Il peut produire des communications non verbales comme rire, soupirer et pleurer. Bark supporte plus de 100 presets de haut-parleurs et 13+ langues.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
5GB
Numéro
2x
Bark Small
Standard
Bark Small est une version distillée du modèle Bark qui échange une certaine qualité audio pour des vitesses d'inférence considérablement plus rapides et des exigences de mémoire plus faibles. Il conserve la capacité de Bark à générer la parole avec des émotions, des rires et plusieurs langues.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
2GB
Numéro
2x
CosyVoice 2
Standard
CosyVoice 2 du Tongyi Lab d'Alibaba atteint une qualité de parole comparable à l'homme avec une latence extrêmement faible, ce qui le rend idéal pour les applications en temps réel. Il utilise une approche de quantification scalaire finie pour la synthèse en streaming et prend en charge le clonage vocal zéro-shot, la synthèse cross-lingual et le contrôle des émotions à grain fin.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
4GB
Oui
2x
Dia TTS
Standard
Dia by Nari Labs est un modèle text-to-speech de 1.6B conçu spécifiquement pour générer le dialogue multi-parleurs. Il peut produire des conversations sonores naturelles entre deux haut-parleurs avec des prises de vues appropriées, la prosodie, et l'expression émotionnelle. Dia est parfait pour créer des contenus de style podcast, des dialogues audiobooks, et l'IA conversationnelle interactive.
Nari Labs
Apache 2.0
Medium
en
4GB
Numéro
2x
Parler TTS
Standard
Parler TTS est un modèle texte-à-discours qui utilise des descriptions vocales en langage naturel pour contrôler la parole générée. Au lieu de sélectionner à partir de voix prédéfinies, vous décrivez la voix que vous voulez (par exemple, «une voix féminine chaude avec un léger accent britannique, parlant lentement et clairement») et Parler génère une correspondance vocale avec cette description.
Hugging Face
Apache 2.0
Medium
en
4GB
Numéro
2x
GLM-TTS
Standard
GLM-TTS de Zhipu AI est un système texte-à-discours construit sur l'architecture Llama avec un écoulement correspondant. Il atteint le taux d'erreur de caractères le plus bas parmi les modèles TTS open-source, ce qui signifie qu'il produit la prononciation la plus précise. GLM-TTS prend en charge l'anglais et le chinois avec le clonage vocal de 3-10 échantillons audio secondes.
Zhipu AI
GLM-4 License
Medium
en, zh
4GB
Oui
2x
IndexTTS-2
Standard
IndexTTS-2 est un système texto-speech avancé qui excelle à la synthèse vocale zéro-shot avec un contrôle de l'émotion fine-grain. Il peut générer la parole avec des tons émotionnels spécifiques comme heureux, triste, en colère, ou craintif sans exiger des données d'entraînement spécifiques à l'émotion. Le modèle utilise des vecteurs d'émotion pour contrôler précisément l'expression émotionnelle de la parole générée.
Index Team
Bilibili Model License
Medium
en, zh
4GB
Oui
2x
Spark TTS
Standard
Spark TTS de SparkAudio est un modèle text-to-speech qui combine le clonage de la voix avec une émotion contrôlable et un style de parole. En utilisant seulement 5 secondes d'audio de référence, il peut cloner une voix puis générer une parole avec des émotions, des vitesses et des styles différents tout en conservant l'identité vocale clonée.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
4GB
Oui
2x
GPT-SoVITS
Standard
GPT-SoVITS combine la modélisation de langage de style GPT avec SoVITS (Sing Voice Inference via Translation and Synthesis) pour le clonage de voix puissant à faible résolution. Avec aussi peu que 5 secondes d'audio de référence, il peut cloner avec précision une voix et générer de nouveaux discours tout en préservant les caractéristiques uniques de l'orateur. Il excelle à la fois à parler et à chanter la synthèse vocale.
RVC-Boss
MIT
Slow
en, zh, ja, ko
6GB
Oui
2x
Orpheus
Standard
Orphée est un modèle à grande échelle texte-à-discours qui atteint l'expression émotionnelle au niveau humain. Formé sur plus de 100 000 heures de diverses données de la parole, il excelle dans la génération de la parole avec des émotions naturelles, l'accent, et les styles de parole. Orphée peut produire une parole qui est pratiquement indistinguable des enregistrements humains.
Canopy Labs
Llama 3.2 Community
Medium
en
4GB
Numéro
2x
Chatterbox
Premium
Chatterbox by Resemble AI est un modèle de clonage vocal à capture nulle de pointe. Il peut reproduire n'importe quelle voix à partir d'un seul échantillon audio avec une précision remarquable, captant non seulement le timbre, mais aussi le style de parole et les nuances émotionnelles. Chatterbox dispose également d'un contrôle de l'émotion à grain fin, vous permettant d'ajuster le ton émotionnel du discours généré indépendamment de l'identité vocale.
Resemble AI
MIT
Medium
en
4GB
Oui
4x
Tortoise TTS
Premium
Tortoise TTS est un système autorégressif de texte à parole multivoix qui priorise la qualité audio sur la vitesse. Il utilise l'architecture inspirée de DALL-E pour générer une parole très naturelle avec une excellente prosody et une similarité de haut-parleur. Bien que plus lent que de nombreuses alternatives, Tortoise produit une partie de la parole synthétique la plus réaliste disponible dans l'écosystème open-source.
James Betker
Apache 2.0
Slow
en
8GB
Oui
4x
StyleTTS 2
Premium
StyleTTS 2 réalise une synthèse TTS à l'échelle humaine en combinant diffusion de style et formation contradictoire à l'aide de modèles de langage de langage de grande taille. Il génère la parole la plus naturelle parmi les modèles de langage mono-parleur, rivalisant avec les enregistrements humains. StyleTTS 2 utilise la modélisation de style basée sur la diffusion pour capturer toute la gamme de variations de la parole humaine.
Columbia University
MIT
Medium
en
4GB
Numéro
4x
OpenVoice
Premium
OpenVoice by MyShell.ai permet le clonage instantané de la voix avec contrôle granulaire sur le style vocal, l'émotion, l'accent, le rythme, les pauses et l'intonation. Il peut cloner une voix à partir d'un court clip audio et générer la parole en plusieurs langues tout en conservant l'identité de l'enceinte. OpenVoice fonctionne également comme un convertisseur vocal, permettant la transformation vocale en temps réel.
MyShell.ai / MIT
MIT
Medium
en, zh, ja, ko, fr, de, es, it
4GB
Oui
4x
Qwen3 TTS
Standard
Qwen3-TTS est un modèle de texte à parole de 1,7 milliard de paramètres de l'équipe Qwen d'Alibaba. Il prend en charge trois modes : voix prédéfinies avec contrôle d'émotion (9 haut-parleurs), clonage de la voix à partir de seulement 3 secondes d'audio, et un mode de conception de la voix unique où vous décrivez la voix que vous voulez en langage naturel.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
7GB
Oui
2x
Sesame CSM
Premium
Sésame CSM (Conversational Speech Model) est un modèle de 1 milliard de paramètres conçu spécifiquement pour générer la parole conversationnelle. Il modélise les modèles naturels de conversation humaine, y compris le timing tour à tour, les réponses des canaux arrière, les réactions émotionnelles et le flux conversationnel.
Sesame
Apache 2.0
Slow
en
8GB
Numéro
4x
Kitten TTS
Free
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
en
0GB
Numéro
Gratuit
Kokoro
Gratuit
Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.
Hexgrad
Apache 2.0
Fast
Piper
Gratuit
Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.
Rhasspy
MIT
Fast
VITS
Gratuit
VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.
Jaehyeon Kim et al.
MIT
Fast
MeloTTS
Gratuit
MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.
MyShell.ai
MIT
Fast
Kitten TTS
Gratuit
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
Bark
Norme
Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Numéro
Bark Small
Norme
Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Numéro
CosyVoice 2
Norme
CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
Oui
Dia TTS
Norme
Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.
Nari Labs
Apache 2.0
Medium
en
Numéro
Parler TTS
Norme
Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.
Hugging Face
Apache 2.0
Medium
en
Numéro
GLM-TTS
Norme
GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.
Zhipu AI
GLM-4 License
Medium
en, zh
Oui
IndexTTS-2
Norme
IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.
Index Team
Bilibili Model License
Medium
en, zh
Oui
Spark TTS
Norme
Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
Oui
GPT-SoVITS
Norme
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
RVC-Boss
MIT
Slow
en, zh, ja, ko
Oui
Orpheus
Norme
Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.
Canopy Labs
Llama 3.2 Community
Medium
en
Numéro
Qwen3 TTS
Norme
Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
Oui
Tableau de comparaison du modèle
| Modèle | Développeur & #160;: | Niveau | Qualité: | Régime | langues | Clonage de la voix | VRAM | Licence & #160;: | Crédits ouverts | |
|---|---|---|---|---|---|---|---|---|---|---|
| Kokoro | Hexgrad | Free | Fast | 11 | 1.5GB | Apache 2.0 | Gratuit | Utilisation | ||
| Piper | Rhasspy | Free | Fast | 31 | 0 (CPU only) | MIT | Gratuit | Utilisation | ||
| VITS | Jaehyeon Kim et al. | Free | Fast | 4 | 1GB | MIT | Gratuit | Utilisation | ||
| MeloTTS | MyShell.ai | Free | Fast | 6 | 0.5GB (GPU optional) | MIT | Gratuit | Utilisation | ||
| Bark | Suno | Standard | Slow | 13 | 5GB | MIT | 2 | Utilisation | ||
| Bark Small | Suno | Standard | Medium | 13 | 2GB | MIT | 2 | Utilisation | ||
| CosyVoice 2 | Alibaba (Tongyi Lab) | Standard | Medium | 8 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| Dia TTS | Nari Labs | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| Parler TTS | Hugging Face | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Utilisation | ||
| GLM-TTS | Zhipu AI | Standard | Medium | 2 | 4GB | GLM-4 License | 2 | Utilisation | ||
| IndexTTS-2 | Index Team | Standard | Medium | 2 | 4GB | Bilibili Model License | 2 | Utilisation | ||
| Spark TTS | SparkAudio | Standard | Medium | 2 | 4GB | CC BY-NC-SA 4.0 | 2 | Utilisation | ||
| GPT-SoVITS | RVC-Boss | Standard | Slow | 4 | 6GB | MIT | 2 | Utilisation | ||
| Orpheus | Canopy Labs | Standard | Medium | 1 | 4GB | Llama 3.2 Community | 2 | Utilisation | ||
| Chatterbox | Resemble AI | Premium | Medium | 1 | 4GB | MIT | 4 | Utilisation | ||
| Tortoise TTS | James Betker | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Utilisation | ||
| StyleTTS 2 | Columbia University | Premium | Medium | 1 | 4GB | MIT | 4 | Utilisation | ||
| OpenVoice | MyShell.ai / MIT | Premium | Medium | 8 | 4GB | MIT | 4 | Utilisation | ||
| Qwen3 TTS | Alibaba (Qwen) | Standard | Medium | 10 | 7GB | Apache 2.0 | 2 | Utilisation | ||
| Sesame CSM | Sesame | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Utilisation | ||
| Kitten TTS | KittenML | Free | Fast | 1 | 0GB | Apache 2.0 | Gratuit | Utilisation |
La plate-forme de texte à discours la plus complète de l'IA
Pourquoi choisir TTS.ai pour le texte à la parole?
TTS.ai rassemble les meilleurs modèles open-source text-to-speech du monde dans une plate-forme unique et facile à utiliser. Contrairement aux services propriétaires qui vous verrouillent dans un seul moteur vocal, TTS.ai vous donne accès à 20+ modèles de grands laboratoires de recherche dont Coqui, MyShell, Amphion, NVIDIA, Suno, HuggingFace, Tsinghua University, et plus encore.
Chaque modèle est open source sous MIT, Apache 2.0, ou licences permissives similaires, garantissant que vous avez tous les droits commerciaux d'utiliser l'audio généré dans vos projets. Que vous ayez besoin d'une synthèse rapide et légère pour des applications en temps réel ou une sortie studio de qualité supérieure pour les livres audio et podcasts, TTS.ai a le modèle approprié pour chaque cas d'utilisation.
Modèles gratuits, aucun compte requis
Commencez immédiatement avec trois modèles TTS gratuits : Piper (ultra-rapide, léger), VITS (synthèse neuronale de haute qualité) et MeloTTS (assistance multi-langue). Pas d'inscription, pas de carte de crédit, pas de limite sur les générations.
Traitement accéléré par GPU
Tous les modèles TTS fonctionnent sur des GPU NVIDIA dédiés pour des temps de génération rapides et cohérents. Les modèles gratuits génèrent généralement de l'audio en moins de 2 secondes. Les modèles standard comme Kokoro, CosyVoice 2 et Bark en moyenne 3-5 secondes.
30+ Langues prises en charge
Générer un discours en plus de 30 langues dont l'anglais, l'espagnol, le français, l'allemand, l'italien, le portugais, le chinois, le japonais, le coréen, l'arabe, le hindi, le russe, etc. Plusieurs modèles soutiennent la synthèse cross-lingual, ce qui signifie que vous pouvez générer un discours dans une langue sur laquelle la voix originale n'a jamais été formée.
API Developer-Ready
Intégrez TTS.ai dans vos applications avec notre API REST compatible OpenAI. Un paramètre pour tous les modèles 20+. Python, JavaScript, cURL et Go SDKs. Support en streaming pour les applications en temps réel. Traitement par lots pour la génération de contenu à grande échelle. Webhooks pour les notifications asynchrones. Disponible sur les plans Pro et Enterprise.
Foire aux questions
Que pourrions-nous améliorer? Vos commentaires nous aident à résoudre les problèmes.
Commencer à convertir le texte en discours maintenant
Rejoignez des milliers de créateurs en utilisant TTS.ai. Obtenez 15 000 caractères gratuits avec un nouveau compte. Modèles gratuits disponibles sans inscription.