AI Teksto- al- ParoloName
Konverti tekston al nature sonanta parolado per pli ol 24 malfermkodaj AI-modeloj. Libere uzebla, ne necesas konto.
Envolvu vian tekston en SSML- etikedojn por preciza kontrolo:
<speak><prosody rate="slow">Slow speech</prosody></speak>
Aldoni emociajn markojn por influi la liveron (modela subteno varias):
Difini proprajn elparolojn (vorto = elparolo):
Detaloj de modelo
Zonos
Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.
| Programisto: | Zyphra |
| Licenco: | Apache 2.0 |
| Rapideco | Medium |
| Kvalito: | |
| lingvoj | 5 lingvoj |
| VRAM | 6GB |
| Voĉa klonado | Subtenita |
Konsiloj por pli bonaj rezultoj
- Uzi taŭgan interpunkcion por naturaj paŭzoj kaj intonacio
- Literumu nombrojn kaj mallongigojn por pli klara prononco
- Aldoni komojn por krei mallongajn paŭzojn inter frazoj
- Uzu tripunktojn (...) por pli longaj dramaj paŭzoj
- Provu Kokoro aŭ CosyVoice 2 por plej naturaj rezultoj
- Uzi Dia por multparolanta dialogo kaj podkasta enhavo
Kreditaj kostoj
| Tamuz | Kosto por 1K signoj |
|---|---|
| Libera | 0 kreditoj (senlima) |
| Defaŭlta | 2 kreditoj / 1K signoj |
| PremiumLanguage | 4 kreditoj / 1K signoj |
Kiel funkcias AI Text-to-Speech
Krei profesie kvalitajn voĉojn en tri simplaj paŝoj. Ne necesas teknikaj scioj.
Entajpu vian tekston
Entajpu, enmetu aŭ alŝutu la tekston kiun vi volas konverti al parolado. Subtenas ĝis 5, 000 signojn por generado por ensalutintaj uzantoj. Uzu simplan tekston aŭ aldonu SSML- etikedojn por plia kontrolo pri prononco, paŭzoj, kaj emfazo.
Elekti modelon kaj voĉon
Elektu el pli ol 20 AI-modeloj tra tri niveloj. Elektu voĉon kiu kongruas kun via enhavo, elektu vian cellingvon, agordu la ludrapidecon de 0. 5x al 2. 0x, kaj elektu vian preferatan eligoformaton (MP3, WAV, OGG, aŭ FLAC).
Generi kaj elŝuti
Klaku Generi kaj via sono estos preta post kelkaj sekundoj. Antaŭrigardu per la enkonstruita ludilo, elŝutu en via elektita formato, aŭ kopiu kunhavigeblan ligon. Uzu la API por batch- prilaborado kaj integriĝo en via laborfluo.
Teksto- al- parolaj uzkazoj
Teksto-al-vorto per AI transformas kiel homoj kreas, konsumas kaj interagas kun aŭda enhavo tra dekduoj da industrioj.
Ĉiuj teksto- al- parolaj modeloj
Detalaj specifoj por ĉiu AI-modelo havebla ĉe TTS.ai. Komparu kvaliton, rapidecon, lingvan subtenon kaj funkciojn por trovi la perfektan modelon por via projekto.
Kokoro
Free
Kokoro estas 82-miliona parametra teksto-al-parolo-modelo kiu bone superas sian pezan klason. Spite sian malgrandan grandecon, ĝi produktas rimarkinde naturan kaj esprimplenan paroladon. Kokoro subtenas plurajn lingvojn inkluzive de la angla, japana, ĉina, kaj korea kun vario de esprimplenaj voĉoj. Ĝi funkcias nekredeble rapide — generante sonon preskaŭ 100-oble pli rapide ol realtempa sur GPU.
Hexgrad
Apache 2.0
Fast
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
1.5GB
@ info: status
Libera
Piper
Free
Piper estas malpeza teksto-al-vorta motoro evoluigita de Rhasspy kiu uzas VITS kaj larynx arkitekturojn. Ĝi ruliĝas tute sur CPU, kio faras ĝin ideala por periferiaj aparatoj, hejma aŭtomatigo, kaj aplikaĵoj kiuj bezonas senretan TTS. Kun pli ol 100 voĉoj en pli ol 30 lingvoj, Piper liveras nature sonantan paroladon je realtempa rapideco eĉ sur Raspberry Pi 4.
Rhasspy
MIT
Fast
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
0 (CPU only)
@ info: status
Libera
VITS
Free
VITS (Variaciona Inferigo kun Kontraŭstara Lernado por Fina Fina Tekst- al- Parola Metodo) estas paralela fin- al- fina TTS- metodo kiu generas pli nature sonantan sonon ol nunaj du- paŝaj modeloj. Ĝi adoptas variacionan inferigon plifortigitan per normaligaj fluoj kaj kontraŭstara trejna procezo, atingante signifan plibonigon en natureco.
Jaehyeon Kim et al.
MIT
Fast
en, zh, ja, ko
1GB
@ info: status
Libera
MeloTTS
Free
MeloTTS de MyShell. ai estas multlingva TTS- biblioteko subtenanta la anglan (usonan, britan, hindan, aŭstralian), la hispanan, la francan, la ĉinan, la japanan, kaj la korean. Ĝi estas ekstreme rapida, traktante tekston je preskaŭ realtempa rapideco nur per CPU. MeloTTS estas desegnita por produkta uzo kaj subtenas kaj CPU kaj GPU- dedukton.
MyShell.ai
MIT
Fast
en, es, fr, zh, ja, ko
0.5GB (GPU optional)
@ info: status
Libera
Bark
Standard
Bark de Suno estas transformatoro-bazita teksto-al-sono-modelo kiu povas generi tre realisman, plurlingvan paroladon same kiel aliajn sonojn kiel muzikon, fonbruon, kaj sonefikojn. Ĝi povas produkti neverbajn komunikadojn kiel ridon, suspiron, kaj ploron. Bark subtenas pli ol 100 parolantojn kaj pli ol 13 lingvojn.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
5GB
@ info: status
2x
Bark Small
Standard
Bark Small estas distilita versio de la Bark-modelo kiu interŝanĝas iom da sonkvalito por signife pli rapidaj deduktaj rapidoj kaj pli malaltaj memoro-bezonoj. Ĝi konservas la kapablon de Bark generi paroladon kun emocioj, ridoj, kaj pluraj lingvoj.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
2GB
@ info: status
2x
CosyVoice 2
Standard
CosyVoice 2 de Tongyi Lab de Alibaba atingas homan parolkvaliton kun ekstreme malalta latenteco, kio faras ĝin ideala por realtempaj aplikaĵoj. Ĝi uzas finian skalaran kvantigon por flua sintezo kaj subtenas nulan voĉan klonadon, interlingvan sintezon, kaj fajngranan emocian kontrolon. Ĝi superas multajn komercajn TTS- sistemojn en subjektivaj taksadoj.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
4GB
Jes
2x
Dia TTS
Standard
Dia de Nari Labs estas 1. 6B parametra teksto- al- parola modelo desegnita specife por generi multparolan dialogon. Ĝi povas produkti nature sonantajn konversaciojn inter du parolantoj kun taŭga turniĝo, prozodio, kaj emocia esprimo. Dia estas perfekta por krei podkast-stilan enhavon, aŭdlibrajn dialogojn, kaj interagan konversacian AI.
Nari Labs
Apache 2.0
Medium
en
4GB
@ info: status
2x
Parler TTS
Standard
Parler TTS estas teksto-al-vorta modelo kiu uzas voĉajn priskribojn de natura lingvo por kontroli la generitan paroladon. Anstataŭ elekti el antaŭdifinitaj voĉoj, vi priskribas la voĉon kiun vi volas (ekzemple, "varma ina voĉo kun iom da brita akĉento, parolanta malrapide kaj klare") kaj Parler generas paroladon konforman al tiu priskribo. Tio faras ĝin unika fleksebla por kreivaj aplikaĵoj.
Hugging Face
Apache 2.0
Medium
en
4GB
@ info: status
2x
GLM-TTS
Standard
GLM- TTS de Zhipu AI estas teksto- al- parola sistemo konstruita sur la Llama arkitekturo kun flua kongruado. Ĝi atingas la plej malaltan signoeran indicon inter malfermkodaj TTS- modeloj, kio signifas, ke ĝi produktas la plej precizan prononcon. GLM- TTS subtenas la anglan kaj la ĉinan per voĉ- klonado de 3- 10- sekundaj aŭdaj specimenoj.
Zhipu AI
GLM-4 License
Medium
en, zh
4GB
Jes
2x
IndexTTS-2
Standard
IndexTTS- 2 estas progresinta teksto- al- parola sistemo kiu elstaras je nulo- pafa voĉsintezo kun fajngrana emocia kontrolo. Ĝi povas generi paroladon kun specifaj emociaj tonoj kiel feliĉa, trista, kolera, aŭ timigita sen postulo de emoci-specifaj trejnadaj datumoj. La modelo uzas emociajn vektorojn por precize kontroli la emocian esprimon de generita parolado.
Index Team
Bilibili Model License
Medium
en, zh
4GB
Jes
2x
Spark TTS
Standard
Spark TTS de SparkAudio estas teksto-al-parolo-modelo kiu kombinas voĉan klonadon kun stireblaj emocioj kaj parola stilo. Uzante nur 5 sekundojn da referenca aŭdo, ĝi povas kloni voĉon kaj poste generi paroladon kun malsamaj emocioj, rapidoj, kaj stiloj dum konservante la klonitan voĉan identecon. Spark TTS uzas komando-bazitan kontrolsistemon.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
4GB
Jes
2x
GPT-SoVITS
Standard
GPT- SoVITS kombinas GPT- stilan lingvan modeladon kun SoVITS (Singing Voice Inference via Translation and Synthesis) por potenca voĉ- klonado per malmultaj pafoj. Per nur 5 sekundoj da referenca aŭdo, ĝi povas precize kloni voĉon kaj generi novan paroladon konservante la unikajn karakterizaĵojn de la parolanto. Ĝi elstaras je kaj parola kaj kantanta voĉ- sintezo.
RVC-Boss
MIT
Slow
en, zh, ja, ko
6GB
Jes
2x
Orpheus
Standard
Orfeo estas grandskala teksto- al- parola modelo kiu atingas homan nivelon de emocia esprimo. Trejnita sur pli ol 100, 000 horoj de diversaj paroldatumoj, ĝi elstaras en generado de parolado kun naturaj emocioj, emfazo, kaj parolstiloj. Orfeo povas produkti paroladon kiu estas preskaŭ nedistingebla de homaj registraĵoj.
Canopy Labs
Llama 3.2 Community
Medium
en
4GB
@ info: status
2x
Chatterbox
Premium
Chatterbox de Resemble AI estas avantaĝa nulo-fota voĉ-klona modelo. Ĝi povas repliki iun ajn voĉon el ununura son-ekzemplo kun rimarkinda precizeco, kaptante ne nur la tonalton sed ankaŭ la parolan stilon kaj emociajn nuancojn. Chatterbox ankaŭ havas fin-granan emocian kontrolon, permesante al vi agordi la emocian tonon de la generita parolado sendepende de la voĉo-identigo.
Resemble AI
MIT
Medium
en
4GB
Jes
4x
Tortoise TTS
Premium
Tortoise TTS estas aŭto-regresiva plurvoĉa teksto-al-parolo-sistemo kiu prioritatas aŭdkvaliton super rapidecon. Ĝi uzas DALL-E-inspiritan arkitekturon por generi tre naturan paroladon kun bonega prozodio kaj parolsimileco. Kvankam pli malrapida ol multaj alternativoj, Tortoise produktas kelkajn el la plej realismaj sintezaj paroloj haveblaj en la malfermkoda ekosistemo.
James Betker
Apache 2.0
Slow
en
8GB
Jes
4x
StyleTTS 2
Premium
StyleTTS 2 atingas homan-nivelan TTS-sintezon kombinante stilan difuzon kun kontraŭa trejnado uzante grandajn parollingvajn modelojn. Ĝi generas la plej nature sonantan paroladon inter unu-parolanto-modeloj, rivalante homan registradon. StyleTTS 2 uzas difuzon-bazitan stilan modeladon por kapti la plenan gamon de homa parolvariado.
Columbia University
MIT
Medium
en
4GB
@ info: status
4x
OpenVoice
Premium
OpenVoice de MyShell.ai ebligas tujan voĉan klonadon kun granula kontrolo pri voĉstilo, emocio, akcento, ritmo, paŭzoj, kaj intonacio. Ĝi povas kloni voĉon el mallonga sondosiero kaj generi paroladon en pluraj lingvoj dum konservado de la parolanto-identigo. OpenVoice ankaŭ funkcias kiel voĉ-konvertilo, permesante realtempan voĉan transformon.
MyShell.ai / MIT
MIT
Medium
en, zh, ja, ko, fr, de, es, it
4GB
Jes
4x
Qwen3 TTS
Standard
Qwen3- TTS estas 1. 7 miliarda parametra teksto- al- parola modelo de la Qwen- teamo de Alibaba. Ĝi subtenas tri reĝimojn: antaŭdifinitaj voĉoj kun emocia kontrolo (9 parolantoj), voĉklonado el nur 3 sekundoj da aŭdo, kaj unika voĉdezajna reĝimo kie vi priskribas la voĉon kiun vi volas en natura lingvo. Ĝi kovras 10 lingvojn kun alta esprimpovo kaj natura prozodio.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
7GB
Jes
2x
Sesame CSM
Premium
Sesame CSM (Conversational Speech Model) estas 1 miliarda parametra modelo desegnita specife por generi konversacian paroladon. Ĝi modelas la naturajn ŝablonojn de homa konversacio inkluzive de turno-prena tempo, malantaŭkanalaj respondoj, emociaj reagoj, kaj konversacia fluo. CSM generas sonon kiu sonas kiel natura homa konversacio prefere ol sinteza parolado.
Sesame
Apache 2.0
Slow
en
8GB
@ info: status
4x
Chatterbox Turbo
Standard
Chatterbox Turbo de Resemble AI estas 350M-parametra ĝisdatigo de Chatterbox, kiu liveras ĝis 6x realtempan rapidon kun latenteco sub 200 ms. Ĝi subtenas paralingvistikajn etikedojn kiel [rido], [tuso], kaj [rideto] rekte en teksto. Inkluzivas Perth-akvomarkon sur ĉiuj generitaj sonoj por spurado de origino.
Resemble AI
MIT
Fast
en
2GB
Jes
2x
Zonos
Standard
Zonos v0. 1 de Zyphra estas 1. 6B parametra modelo kun fajngrana emocia kontrolo per ŝoviloj por feliĉo, kolero, tristeco, timo, kaj surprizo. Ĝi ofertas kaj Transformilon kaj novan SSM (stato-spacan modelon) varianton. Trejnita sur 200K+ horoj de plurlingva parolado kun nulo- pafa voĉo- klonado de 10- 30 sekundoj de referenca aŭdo. Name
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
6GB
Jes
2x
Dia 2
Standard
Dia2 de Nari Labs estas flu-unua ĝisdatigo de Dia, havebla en 1B kaj 2B parametraj variantoj. Ĝi komencas sintezon de sono el la unuaj kelkaj signoj, kio faras ĝin ideala por realtempaj voĉaj agentoj kaj parol-al-parolaj kanaloj. Subtenas multparolan dialogon kun [S1] / [S2] etikedoj kaj paralingvistikaj indikoj kiel (ridoj), (tuso). Name
Nari Labs
Apache 2.0
Fast
en
4GB
@ info: status
2x
VoxCPM
Standard
VoxCPM 1. 5 de OpenBMB estas nova TTS- modelo sen tokenizer kiu funkcias en kontinua spaco pli ol diskreta tokenoj. Ĝi produktas altkvalitan 44. 1 kHz sonon, subtenas nulan voĉan klonadon de 3- 10 sekundoj, kaj konservas konsistencon tra alineoj. Interlingva klonado permesas al vi apliki anglan voĉon al ĉina parolado kaj inverse.
OpenBMB
Apache 2.0
Fast
en, zh
4GB
Jes
2x
OuteTTS
Free
OuteTTS etendas grandajn lingvajn modelojn per tekst-al-parolaj kapabloj dum konservado de la origina arkitekturo. Ĝi subtenas plurajn internajn partojn inkluzive llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, kaj eĉ retumilan inferecon per Transformers.js. Ĝi havas nulan voĉan klonadon per parolantoj konservitaj kiel JSON.
OuteAI
Apache 2.0
Fast
en
2GB
Jes
Libera
TADA
Standard
TADA (Teksto-Aŭda Duobla Alignment) de Hume AI estas pionira TTS modelo kiu eliminas halucinojn tra nova duobla alignment arkitekturo konstruita sur Llama 3. 2. Disponebla en 1B (angla) kaj 3B (plilingva) variantoj, TADA atingas RTF de 0. 09 — 5x pli rapide ol kompareblaj LLM-bazitaj TTS modeloj. Ĝi subtenas ĝis 700 sekundojn de aŭda kunteksto kaj produktas emocie espriman paroladon kun nulo halucinoj sur normaj referencoj.
Hume AI
MIT
Fast
en
5GB
@ info: status
2x
VibeVoice
Standard
VibeVoice de Microsoft estas havebla en du variantoj: 1. 5B- modelo por longforma enhavo (ĝis 90 minutoj, 4 parolantoj) kaj Realtime 0. 5B- modelo por fluado kun ~200 ms unua aŭda prokrasto. La 1. 5B- varianto elstaras ĉe podkastoj kaj aŭdlibroj kun laŭteco de parolantoj dum longaj paŝoj. Noto: Microsoft forigis TTS- kodon el la deponejo kaj generita aŭdo inkluzivas aŭdeblajn AI- ekskludojn.
Microsoft
MIT
Fast
en, zh
4GB
@ info: status
2x
Pocket TTS
Free
Pocket TTS de Kyutai (kreintoj de Moshi) estas kompakta 100M parametra teksto-al-vorta modelo kiu estas multe pli potenca ol ĝia pezo. Ĝi funkcias efike sur CPU, subtenas nulan voĉan klonadon el ununura aŭd-ekzemplo, kaj produktas nature sonantan paroladon. La malgranda modelo faras ĝin ideala por rando-disvastigo kaj malriĉaj rimedoj.
Kyutai
MIT
Fast
en, fr
1GB
Jes
Libera
Kitten TTS
Free
Kitten TTS de KittenML estas ultra- malpeza teksto- al- parola modelo konstruita sur ONNX. Kun variantoj de 15M ĝis 80M parametroj (25- 80 MB sur disko), ĝi liveras altkvalitan voĉan sintezon sur CPU sen bezonado de GPU. Ĝi havas 8 enkonstruitajn voĉojn, agordeblan parolrapidecon, kaj enkonstruitan tekstan antaŭtraktadon por nombroj, valutoj, kaj unuoj. Ideala por rando- disvastigo kaj malalt- latentaj aplikaĵoj. Name
KittenML
Apache 2.0
Fast
en
0GB
@ info: status
Libera
CosyVoice3
Standard
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
4GB
Jes
2x
MOSS-TTS
Premium
MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.
OpenMOSS
Apache 2.0
Medium
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
16GB
Jes
4x
MegaTTS3
Premium
MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.
ByteDance
Apache 2.0
Slow
en, zh
8GB
Jes
4x
Kokoro
Libera
Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.
Hexgrad
Apache 2.0
Fast
Piper
Libera
Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.
Rhasspy
MIT
Fast
VITS
Libera
VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.
Jaehyeon Kim et al.
MIT
Fast
MeloTTS
Libera
MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.
MyShell.ai
MIT
Fast
OuteTTS
Libera
OuteTTS extends large language models with text-to-speech capabilities while preserving the original architecture. It supports multiple backends including llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, and even browser inference via Transformers.js. Features zero-shot voice cloning through speaker profiles saved as JSON.
OuteAI
Apache 2.0
Fast
Pocket TTS
Libera
Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.
Kyutai
MIT
Fast
Kitten TTS
Libera
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
Bark
Defaŭlta
Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
@ info: status
Bark Small
Defaŭlta
Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
@ info: status
CosyVoice 2
Defaŭlta
CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
Jes
Dia TTS
Defaŭlta
Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.
Nari Labs
Apache 2.0
Medium
en
@ info: status
Parler TTS
Defaŭlta
Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.
Hugging Face
Apache 2.0
Medium
en
@ info: status
GLM-TTS
Defaŭlta
GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.
Zhipu AI
GLM-4 License
Medium
en, zh
Jes
IndexTTS-2
Defaŭlta
IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.
Index Team
Bilibili Model License
Medium
en, zh
Jes
Spark TTS
Defaŭlta
Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
Jes
GPT-SoVITS
Defaŭlta
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
RVC-Boss
MIT
Slow
en, zh, ja, ko
Jes
Orpheus
Defaŭlta
Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.
Canopy Labs
Llama 3.2 Community
Medium
en
@ info: status
Qwen3 TTS
Defaŭlta
Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
Jes
Chatterbox Turbo
Defaŭlta
Chatterbox Turbo by Resemble AI is a 350M parameter upgrade to Chatterbox, delivering up to 6x real-time speed with sub-200ms latency. It supports paralinguistic tags like [laugh], [cough], and [chuckle] directly in text. Includes Perth watermarking on all generated audio for provenance tracking.
Resemble AI
MIT
Fast
en
Jes
Zonos
Defaŭlta
Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
Jes
Dia 2
Defaŭlta
Dia2 by Nari Labs is a streaming-first upgrade to Dia, available in 1B and 2B parameter variants. It begins synthesizing audio from the first few tokens, making it ideal for real-time voice agents and speech-to-speech pipelines. Supports multi-speaker dialogue with [S1]/[S2] tags and paralinguistic cues like (laughs), (coughs).
Nari Labs
Apache 2.0
Fast
en
@ info: status
VoxCPM
Defaŭlta
VoxCPM 1.5 by OpenBMB is a novel tokenizer-free TTS model that operates in continuous space rather than discrete tokens. It produces high-fidelity 44.1kHz audio, supports zero-shot voice cloning from 3-10 seconds, and maintains consistency across paragraphs. Cross-language cloning lets you apply an English voice to Chinese speech and vice versa.
OpenBMB
Apache 2.0
Fast
en, zh
Jes
TADA
Defaŭlta
TADA (Text-Acoustic Dual Alignment) by Hume AI is a groundbreaking TTS model that eliminates hallucinations through a novel dual alignment architecture built on Llama 3.2. Available in 1B (English) and 3B (multilingual) variants, TADA achieves an RTF of 0.09 — 5x faster than comparable LLM-based TTS models. It supports up to 700 seconds of audio context and produces emotionally expressive speech with zero hallucinations on standard benchmarks.
Hume AI
MIT
Fast
en
@ info: status
VibeVoice
Defaŭlta
VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.
Microsoft
MIT
Fast
en, zh
@ info: status
CosyVoice3
Defaŭlta
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
Jes
Modela komparata tabelo
| & Modelo: | Programisto: | Tamuz | Kvalito: | Rapideco | lingvoj | Voĉa klonado | VRAM | Licenco: | kreditoj | |
|---|---|---|---|---|---|---|---|---|---|---|
| Kokoro | Hexgrad | Free | Fast | 11 | 1.5GB | Apache 2.0 | Libera | Uzu | ||
| Piper | Rhasspy | Free | Fast | 31 | 0 (CPU only) | MIT | Libera | Uzu | ||
| VITS | Jaehyeon Kim et al. | Free | Fast | 4 | 1GB | MIT | Libera | Uzu | ||
| MeloTTS | MyShell.ai | Free | Fast | 6 | 0.5GB (GPU optional) | MIT | Libera | Uzu | ||
| Bark | Suno | Standard | Slow | 13 | 5GB | MIT | 2 | Uzu | ||
| Bark Small | Suno | Standard | Medium | 13 | 2GB | MIT | 2 | Uzu | ||
| CosyVoice 2 | Alibaba (Tongyi Lab) | Standard | Medium | 8 | 4GB | Apache 2.0 | 2 | Uzu | ||
| Dia TTS | Nari Labs | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Uzu | ||
| Parler TTS | Hugging Face | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Uzu | ||
| GLM-TTS | Zhipu AI | Standard | Medium | 2 | 4GB | GLM-4 License | 2 | Uzu | ||
| IndexTTS-2 | Index Team | Standard | Medium | 2 | 4GB | Bilibili Model License | 2 | Uzu | ||
| Spark TTS | SparkAudio | Standard | Medium | 2 | 4GB | CC BY-NC-SA 4.0 | 2 | Uzu | ||
| GPT-SoVITS | RVC-Boss | Standard | Slow | 4 | 6GB | MIT | 2 | Uzu | ||
| Orpheus | Canopy Labs | Standard | Medium | 1 | 4GB | Llama 3.2 Community | 2 | Uzu | ||
| Chatterbox | Resemble AI | Premium | Medium | 1 | 4GB | MIT | 4 | Uzu | ||
| Tortoise TTS | James Betker | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Uzu | ||
| StyleTTS 2 | Columbia University | Premium | Medium | 1 | 4GB | MIT | 4 | Uzu | ||
| OpenVoice | MyShell.ai / MIT | Premium | Medium | 8 | 4GB | MIT | 4 | Uzu | ||
| Qwen3 TTS | Alibaba (Qwen) | Standard | Medium | 10 | 7GB | Apache 2.0 | 2 | Uzu | ||
| Sesame CSM | Sesame | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Uzu | ||
| Chatterbox Turbo | Resemble AI | Standard | Fast | 1 | 2GB | MIT | 2 | Uzu | ||
| Zonos | Zyphra | Standard | Medium | 5 | 6GB | Apache 2.0 | 2 | Uzu | ||
| Dia 2 | Nari Labs | Standard | Fast | 1 | 4GB | Apache 2.0 | 2 | Uzu | ||
| VoxCPM | OpenBMB | Standard | Fast | 2 | 4GB | Apache 2.0 | 2 | Uzu | ||
| OuteTTS | OuteAI | Free | Fast | 1 | 2GB | Apache 2.0 | Libera | Uzu | ||
| TADA | Hume AI | Standard | Fast | 1 | 5GB | MIT | 2 | Uzu | ||
| VibeVoice | Microsoft | Standard | Fast | 2 | 4GB | MIT | 2 | Uzu | ||
| Pocket TTS | Kyutai | Free | Fast | 2 | 1GB | MIT | Libera | Uzu | ||
| Kitten TTS | KittenML | Free | Fast | 1 | 0GB | Apache 2.0 | Libera | Uzu | ||
| CosyVoice3 | Alibaba (FunAudioLLM) | Standard | Fast | 9 | 4GB | Apache 2.0 | 2 | Uzu | ||
| MOSS-TTS | OpenMOSS | Premium | Medium | 19 | 16GB | Apache 2.0 | 4 | Uzu | ||
| MegaTTS3 | ByteDance | Premium | Slow | 2 | 8GB | Apache 2.0 | 4 | Uzu |
La plej ampleksa AI-teksto-al-vorta platformo
Kial elekti TTS.ai por Teksto al Parolo?
TTS.ai kunigas la mondon
Ĉiu modelo estas malfermkoda sub MIT, Apache 2.0, aŭ similaj permesaj permesiloj, certigante ke vi havas plenajn komercajn rajtojn uzi la generitan sonon en viaj projektoj. Ĉu vi bezonas rapidan, malpezan sintezon por realtempaj aplikaĵoj aŭ altkvalitan studio-kvalitan eliron por sonlibroj kaj podkastoj, TTS.ai havas la ĝustan modelon por ĉiu uzo.
Liberaj modeloj, neniu konto necesas
Komencu tuj per tri liberaj TTS-modeloj: Piper (tre rapida, malpeza), VITS (altkvalita neŭrona sintezo), kaj MeloTTS (subteno de pluraj lingvoj). Ne necesas aliĝi, ne necesas kreditkarto, ne necesas limigo de generacioj. Liberaj modeloj subtenas la anglan kaj multajn aliajn lingvojn kun nature sonanta eligo taŭga por plej multaj aplikaĵoj.
GPU- akcelita prilaborado
Ĉiuj TTS-modeloj ruliĝas sur dediĉitaj NVIDIA-GPU-oj por rapidaj, konsekvencaj generadaj tempoj. Senpagaj modeloj tipe generas sonon en malpli ol 2 sekundoj. Normalaj modeloj kiel Kokoro, CosyVoice 2, kaj Bark averaĝe 3-5 sekundojn. Premium-modeloj kun la plej alta kvalito, kiel Tortoise kaj Chatterbox, procesas en 5-15 sekundoj depende de la tekstolongo.
30+ subtenataj lingvoj
Generi parolon en pli ol 30 lingvoj inkluzive de la angla, hispana, franca, germana, itala, portugala, ĉina, japana, korea, araba, hindia, rusa, kaj multaj aliaj. Kelkaj modeloj subtenas interlingvan sintezon, kio signifas, ke vi povas generi parolon en lingvo, en kiu la origina voĉo neniam estis trejnita. CosyVoice 2 kaj GPT-SoVITS elstaras je interlingva voĉ-klonado.
Programisto-preta API
Integri TTS.ai en viajn aplikaĵojn per nia OpenAI-kompatibla REST API. Unu fina punkto por ĉiuj 20+ modeloj. Piton, JavaScript, cURL, kaj Go SDKs. Flua subteno por realtempaj aplikaĵoj. Batch prilaborado por grandskala enhavo generado. Webhooks por nesinkronaj sciigoj. Disponebla en Pro kaj Enterprise planoj.
Oftaj demandoj
What could we improve? Your feedback helps us fix issues.
Komenci Konverti Tekston al Parolo Nun
Aliĝi al miloj da kreintoj uzantaj TTS.ai. Ricevu 15,000 senpagajn karakterojn per nova konto. Senpagaj modeloj disponeblaj sen aliĝi.