Teks ke Tutur
Tukarkan teks ke ucapan bunyi-semulajadi dengan model AI sumber terbuka. Bebas untuk digunakan, tiada akaun diperlukan.
Lilitkan teks anda dalam tag SSML untuk kawalan tepat:
<speak><prosody rate="slow">Slow speech</prosody></speak>
Tambah penanda emosi untuk mempengaruhi penghantaran (suport model berlainan):
Tetapkan sebutan tersendiri (perkataan = sebutan):
Perincian Model
GPT-SoVITS
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
| Pemaju: | RVC-Boss |
| Lesen: | MIT |
| Kelajuan | Slow |
| Kualiti: | |
| bahasa | 4 bahasa |
| VRAM | 6GB |
| Klon Suara | Disokong |
Panduan untuk Hasil yang Lebih Baik
- Guna tanda baca yang betul untuk jeda semulajadi dan intonasi
- Ejaan nombor dan singkatan untuk pengucapan yang lebih jelas
- Tambah koma untuk mencipta jeda pendek antara frasa
- Gunakan elips (...) untuk jeda dramatik yang lebih panjang
- Cuba Kokoro atau CosyVoice 2 untuk hasil yang paling semulajadi
- Guna Dia untuk dialog pembicara berbilang dan kandungan podcast
Penggunaan Aksara
| Tajuk | Kos per 1K aksara |
|---|---|
| Bebas | 0 kredit (tidak terhad) |
| Piawai | 2 kredit / 1K aksara |
| Premium | 4 kredit / 1K aksara |
Bagaimana Teks ke Tutur AI Berfungsi
Janakan suara berkualiti profesional dalam tiga langkah mudah. Tiada pengetahuan teknikal diperlukan.
Masukkan teks anda
Taip, tampal atau muat naik teks yang anda ingin ubah kepada ucapan. Menyokong sehingga 5,000 aksara setiap generasi untuk pengguna yang log masuk. Guna teks biasa atau tambah tag SSML untuk kawalan maju terhadap pengucapan, jeda, dan penekanan.
Pilih Model & Suara
Pilih dari 20+ model AI meliputi tiga aras. Pilih suara yang sepadan dengan kandungan anda, pilih bahasa sasaran anda, selaraskan kelajuan main balik dari 0.5x ke 2.0x, dan pilih format output yang anda suka (MP3, WAV, OGG, atau FLAC).
& Muat turun
Klik Janakan dan audio anda siap dalam beberapa saat. Pralihat dengan pemain terbina, muat turun dalam format yang anda pilih, atau salin pautan yang boleh dikongsi. Guna API untuk pemprosesan berbilang dan integrasi ke dalam aliran kerja anda.
Kes Guna Teks ke Tutur
Teks-ke-percakapan yang dikuasakan AI telah mengubah cara orang mencipta, menggunakan, dan berinteraksi dengan kandungan audio di selusin industri.
Semua Model Teks-ke-Tutur
Spesifikasi terperinci bagi setiap model AI yang ada pada TTS.ai. Bandingkan kualiti, kelajuan, sokongan bahasa, dan ciri-ciri untuk mencari model yang sempurna untuk projek anda.
Kokoro
Free
Kokoro adalah model teks-ke-tutur 82 juta parameter yang mencecah lebih daripada kelas beratnya. Walaupun saiznya kecil, ia menghasilkan pertuturan yang luar biasa semulajadi dan ekspresif. Kokoro menyokong pelbagai bahasa termasuk bahasa Inggeris, Jepun, Cina, dan Korea dengan pelbagai suara ekspresif. Ia berjalan sangat pantas — menghasilkan audio hampir 100x lebih pantas daripada masa nyata pada GPU.
Hexgrad
Apache 2.0
Fast
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
1.5GB
Tidak
Bebas
Piper
Free
Piper adalah enjin teks-ke-tutur ringan yang dikembangkan oleh Rhasspy yang menggunakan VITS dan larynx. Ia berjalan sepenuhnya pada CPU, menjadikannya sesuai untuk peranti tepi, automasi rumah, dan aplikasi yang memerlukan TTS luar talian. Dengan lebih 100 suara melebihi 30+ bahasa, Piper memberikan pertuturan bunyi-semulajadi pada kelajuan masa nyata bahkan pada Raspberry Pi 4.
Rhasspy
MIT
Fast
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
0 (CPU only)
Tidak
Bebas
VITS
Free
VITS (Kesimpulan Variasi dengan pembelajaran lawan untuk Teks-ke-Tutur hujung-ke-hujung) adalah kaedah TTS hujung-ke-hujung sejajar yang menghasilkan audio berbunyi lebih semulajadi daripada model dua-tahap semasa. Ia mengamalkan kesimpulan variasi yang dipertingkatkan dengan aliran normalisasi dan proses latihan lawan, mencapai peningkatan yang ketara dalam kebolehan semulajadi.
Jaehyeon Kim et al.
MIT
Fast
en, zh, ja, ko
1GB
Tidak
Bebas
MeloTTS
Free
MeloTTS oleh MyShell.ai adalah pustaka TTS berbilang bahasa yang menyokong Bahasa Inggeris (Amerika, British, India, Australia), Sepanyol, Perancis, Cina, Jepun, dan Korea. Ia sangat pantas, pemprosesan teks pada kelajuan hampir masa nyata pada CPU sahaja. MeloTTS direka untuk penggunaan pengeluaran dan menyokong kedua-dua CPU dan GPU inferensi.
MyShell.ai
MIT
Fast
en, es, fr, zh, ja, ko
0.5GB (GPU optional)
Tidak
Bebas
Bark
Standard
Bark oleh Suno adalah model teks-ke-audio berasaskan penambah yang boleh menghasilkan ucapan multibahasa yang sangat realistik serta audio lain seperti muzik, bunyi latarbelakang, dan kesan bunyi. Ia boleh menghasilkan komunikasi nonverbal seperti ketawa, menjerit, dan menangis. Bark menyokong lebih daripada 100 praset pembicara dan 13+ bahasa.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
5GB
Tidak
2x
Bark Small
Standard
Bark Small adalah versi distilasi model Bark yang menukarkan kualiti audio untuk kelajuan inferensi yang lebih pantas dan keperluan memori yang lebih rendah. Ia menyimpan keupayaan Bark untuk menghasilkan ucapan dengan emosi, ketawa, dan berbilang bahasa.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
2GB
Tidak
2x
CosyVoice 2
Standard
CosyVoice 2 oleh Tongyi Lab Alibaba mencapai kualiti pertuturan setanding manusia dengan latensi yang sangat rendah, menjadikannya sesuai untuk aplikasi masa nyata. Ia menggunakan pendekatan kuantum skala berakhir untuk sintesis strim dan menyokong klon suara sifar-tembak, sintesis lintas-bahasa, dan kawalan emosi berkadaran halus. Ia lebih baik daripada banyak sistem TTS komersial dalam penilaian subjektif.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
4GB
Ya
2x
Dia TTS
Standard
Dia oleh Nari Labs adalah model teks-ke-tutur parameter 1.6B yang direka khas untuk menghasilkan dialog multi-pembesar. Ia boleh menghasilkan perbualan berbunyi semulajadi antara dua pembesar dengan mengambil pusingan yang sesuai, prosody, dan ungkapan emosi. Dia sempurna untuk mencipta kandungan gaya podcast, dialog buku audio, dan AI perbualan interaktif.
Nari Labs
Apache 2.0
Medium
en
4GB
Tidak
2x
Parler TTS
Standard
Parler TTS adalah model teks-ke-tutur yang menggunakan huraian suara bahasa semulajadi untuk mengawal pertuturan yang dijana. Alih-alih memilih dari suara praset, anda menerangkan suara yang anda mahu (cth, "suara wanita hangat dengan loghat British yang ringan, bercakap perlahan dan jelas") dan Parler menghasilkan pertuturan yang sepadan dengan huraian itu. Ini menjadikannya unik fleksibel untuk aplikasi kreatif.
Hugging Face
Apache 2.0
Medium
en
4GB
Tidak
2x
GLM-TTS
Standard
GLM-TTS oleh Zhipu AI adalah sistem teks-ke-tutur yang dibina pada arsitektur Llama dengan penyesuaian aliran. Ia mencapai kadar ralat aksara terendah di antara model TTS sumber terbuka, bermakna ia menghasilkan pengucapan yang paling tepat. GLM-TTS menyokong bahasa Inggeris dan Cina dengan klon suara dari sampel audio 3-10 saat.
Zhipu AI
GLM-4 License
Medium
en, zh
4GB
Ya
2x
IndexTTS-2
Standard
IndexTTS-2 adalah sistem teks-ke-tutur yang maju yang cemerlang pada sintesis suara sifar-tembak dengan kawalan emosi berkadaran halus. Ia boleh menghasilkan pertuturan dengan nada emosi tertentu seperti gembira, sedih, marah, atau takut tanpa memerlukan data latihan emosi tertentu. Model menggunakan vektor emosi untuk mengawal ungkapan emosi pertuturan yang dijana dengan tepat.
Index Team
Bilibili Model License
Medium
en, zh
4GB
Ya
2x
Spark TTS
Standard
Spark TTS oleh SparkAudio adalah model teks-ke-tutur yang menggabungkan klon suara dengan emosi yang boleh dikawal dan gaya bercakap. Menggunakan hanya 5 saat audio rujukan, ia boleh mengklon suara dan kemudian menghasilkan ucapan dengan emosi, kelajuan, dan gaya yang berbeza sambil mengekalkan identiti suara yang diklon. Spark TTS menggunakan sistem kawalan berasaskan prompt.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
4GB
Ya
2x
GPT-SoVITS
Standard
GPT-SoVITS menggabungkan pemodelan bahasa gaya GPT dengan SoVITS (Pengertian Suara Menyanyi melalui Terjemahan dan Sintetis) untuk klon suara beberapa-tembak yang kuat. Dengan hanya 5 saat audio rujukan, ia boleh klon suara dengan tepat dan cipta ucapan baru sambil memelihara ciri-ciri unik pembicara. Ia hebat pada sintesis suara bercakap dan menyanyi.
RVC-Boss
MIT
Slow
en, zh, ja, ko
6GB
Ya
2x
Orpheus
Standard
Orpheus adalah model teks-ke-tutur berskala besar yang mencapai ungkapan emosi tahap manusia. Dilatih pada lebih 100,000 jam data pertuturan yang berlainan, ia cemerlang dalam menghasilkan pertuturan dengan emosi semulajadi, penekanan, dan gaya bercakap. Orpheus boleh menghasilkan pertuturan yang hampir tidak dapat dibezakan daripada rakaman manusia.
Canopy Labs
Llama 3.2 Community
Medium
en
4GB
Tidak
2x
Chatterbox
Premium
Chatterbox oleh Resemble AI adalah model klon suara sifar-tembak terkini. Ia boleh meniru sebarang suara dari sampel audio tunggal dengan ketepatan yang luar biasa, menangkap bukan sahaja timbre tetapi juga gaya bertutur dan nuansa emosi. Chatterbox juga mempunyai kawalan emosi berkayu halus, membolehkan anda menyelaraskan nada emosi ucapan yang dijana secara bebas dari identiti suara.
Resemble AI
MIT
Medium
en
4GB
Ya
4x
Tortoise TTS
Premium
Tortoise TTS adalah sistem teks-ke-tutur multi-suara autoregressif yang mengutamakan kualiti audio berbanding kelajuan. Ia menggunakan arsitektur terinspirasi DALL-E untuk menghasilkan pertuturan yang sangat semulajadi dengan prosody yang baik dan kemiripan pembicara. Walaupun lebih perlahan daripada banyak alternatif, Tortoise menghasilkan sebahagian daripada pertuturan sintetik yang paling realistik yang ada dalam ekosistem sumber terbuka.
James Betker
Apache 2.0
Slow
en
8GB
Ya
4x
StyleTTS 2
Premium
StyleTTS 2 mencapai sintesis TTS tahap manusia dengan menggabungkan penyebaran gaya dengan latihan lawan menggunakan model bahasa pertuturan besar. Ia menghasilkan pertuturan yang terdengar paling semula jadi di antara model penutur tunggal, bersaing dengan rakaman manusia. StyleTTS 2 menggunakan pemodelan gaya berasaskan penyebaran untuk menangkap julat penuh variasi pertuturan manusia.
Columbia University
MIT
Medium
en
4GB
Tidak
4x
OpenVoice
Premium
OpenVoice oleh MyShell.ai membolehkan klon suara seketika dengan kawalan granular terhadap gaya suara, emosi, loghat, irama, jeda, dan intonasi. Ia boleh klon suara dari klip audio pendek dan cipta percakapan dalam beberapa bahasa sambil memelihara identiti pembicara. OpenVoice juga berfungsi sebagai penukar suara, membenarkan transformasi suara masa nyata.
MyShell.ai / MIT
MIT
Medium
en, zh, ja, ko, fr, de, es, it
4GB
Ya
4x
Qwen3 TTS
Standard
Qwen3-TTS ialah model teks-ke-tutur 1.7 bilion parameter dari pasukan Qwen Alibaba. Ia menyokong tiga mod: suara praset dengan kawalan emosi (9 pembesar suara), klon suara dari hanya 3 saat audio, dan mod reka bentuk suara unik di mana anda menerangkan suara yang anda mahu dalam bahasa semulajadi. Ia merangkumi 10 bahasa dengan ekspresi tinggi dan prosodi semulajadi.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
7GB
Ya
2x
Sesame CSM
Premium
Sesame CSM (Conversational Speech Model) adalah model 1 bilion parameter yang direka khas untuk menghasilkan perbualan perbualan. Ia memodelkan corak semula jadi perbualan manusia termasuklah waktu bertukar-tukar, tindak balas saluran belakang, tindak balas emosi, dan aliran perbualan. CSM menghasilkan audio yang berbunyi seperti perbualan manusia semula jadi bukannya perbualan sintetik.
Sesame
Apache 2.0
Slow
en
8GB
Tidak
4x
Chatterbox Turbo
Standard
Chatterbox Turbo oleh Resemble AI adalah penambahbaikan parameter 350M untuk Chatterbox, memberikan kelajuan masa nyata sehingga 6x dengan latensi sub-200ms. Ia menyokong tag paralinguistik seperti [laugh], [cough], dan [chuckle] secara langsung dalam teks. Termasuk tanda air Perth pada semua audio yang dijana untuk penjejak asal.
Resemble AI
MIT
Fast
en
2GB
Ya
2x
Zonos
Standard
Zonos v0.1 oleh Zyphra adalah model parameter 1.6B yang menampilkan kawalan emosi bersaiz halus dengan pelaris untuk kebahagiaan, kemarahan, kesedihan, ketakutan, dan kejutan. Ia menawarkan kedua-dua Transformer dan varian SSM (model ruang-keadaan) novel. Dilatih pada 200K+ jam percakapan berbilang bahasa dengan klon suara sifar-tembak dari 10-30 saat audio rujukan.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
6GB
Ya
2x
Dia 2
Standard
Dia2 oleh Nari Labs adalah penataran strim-pertama kepada Dia, tersedia dalam varian parameter 1B dan 2B. Ia mula mensintesis audio dari beberapa token pertama, menjadikannya sesuai untuk ejen suara masa-sebenar dan paip percakapan-ke-percakapan. Menyokong dialog multi-pembesar suara dengan tag [S1]/[S2] dan tanda paralinguistik seperti (tertawa), (bersin).
Nari Labs
Apache 2.0
Fast
en
4GB
Tidak
2x
VoxCPM
Standard
VoxCPM 1.5 oleh OpenBMB adalah model TTS bebas tokenizer yang beroperasi dalam ruang berterusan berbanding token terpisah. Ia menghasilkan audio 44.1kHz berketulenan tinggi, menyokong klon suara sifar-tembak dari 3-10 saat, dan mengekalkan konsistensi di sepanjang perenggan. Klon lintas-bahasa membolehkan anda gunakan suara Inggeris untuk percakapan Cina dan sebaliknya.
OpenBMB
Apache 2.0
Fast
en, zh
4GB
Ya
2x
OuteTTS
Free
OuteTTS memperluaskan model bahasa besar dengan keupayaan teks-ke-tutur sambil memelihara arsitektur asal. Ia menyokong banyak backend termasuk llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, dan bahkan inferensi pelayar melalui Transformers.js. Ciri-ciri kloning suara sifar-tembak melalui profil pembicara disimpan sebagai JSON.
OuteAI
Apache 2.0
Fast
en
2GB
Ya
Bebas
TADA
Standard
TADA (Teks-Akustik Jajaran Dua) oleh Hume AI adalah model TTS terkini yang menghapuskan halusinasi melalui reka bentuk jajaran dua novel yang dibina pada Llama 3.2. Tersedia dalam varian 1B (Bahasa Inggeris) dan 3B (berbilang bahasa), TADA mencapai RTF 0.09 — 5x lebih pantas daripada model TTS berasaskan LLM yang serupa. Ia menyokong sehingga 700 saat konteks audio dan menghasilkan ucapan yang ekspresif secara emosi dengan sifar halusinasi pada piawaian piawai.
Hume AI
MIT
Fast
en
5GB
Tidak
2x
VibeVoice
Standard
VibeVoice oleh Microsoft datang dalam dua varian: model 1.5B untuk kandungan bentuk panjang (sehingga 90 minit, 4 pengeras) dan model Masa Sebenar 0.5B untuk strim dengan latensi audio pertama ~200ms. Varian 1.5B cemerlang pada podcast dan buku audio dengan konsistensi pengeras melebihi laluan panjang. Perhatian: Microsoft telah membuang kod TTS dari repositori dan audio yang dijana termasuklah pengecualian AI yang boleh didengar.
Microsoft
MIT
Fast
en, zh
4GB
Tidak
2x
Pocket TTS
Free
Pocket TTS oleh Kyutai (pencipta Moshi) adalah model teks-ke-tutur parameter 100M yang kompak yang menekan lebih berat daripada beratnya. Ia berjalan dengan berkesan pada CPU, menyokong klon suara sifar-tembak dari sampel audio tunggal, dan menghasilkan pertuturan berbunyi semulajadi. Saiz model kecil menjadikannya sesuai untuk pelaksanaan tepi dan persekitaran sumber rendah.
Kyutai
MIT
Fast
en, fr
1GB
Ya
Bebas
Kitten TTS
Free
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
en
0GB
Tidak
Bebas
CosyVoice3
Standard
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
4GB
Ya
2x
MOSS-TTS
Premium
MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.
OpenMOSS
Apache 2.0
Medium
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
16GB
Ya
4x
MegaTTS3
Premium
MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.
ByteDance
Apache 2.0
Slow
en, zh
8GB
Ya
4x
Kokoro
Bebas
Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.
Hexgrad
Apache 2.0
Fast
Piper
Bebas
Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.
Rhasspy
MIT
Fast
VITS
Bebas
VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.
Jaehyeon Kim et al.
MIT
Fast
MeloTTS
Bebas
MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.
MyShell.ai
MIT
Fast
OuteTTS
Bebas
OuteTTS extends large language models with text-to-speech capabilities while preserving the original architecture. It supports multiple backends including llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, and even browser inference via Transformers.js. Features zero-shot voice cloning through speaker profiles saved as JSON.
OuteAI
Apache 2.0
Fast
Pocket TTS
Bebas
Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.
Kyutai
MIT
Fast
Kitten TTS
Bebas
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
Bark
Piawai
Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Tidak
Bark Small
Piawai
Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Tidak
CosyVoice 2
Piawai
CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
Ya
Dia TTS
Piawai
Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.
Nari Labs
Apache 2.0
Medium
en
Tidak
Parler TTS
Piawai
Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.
Hugging Face
Apache 2.0
Medium
en
Tidak
GLM-TTS
Piawai
GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.
Zhipu AI
GLM-4 License
Medium
en, zh
Ya
IndexTTS-2
Piawai
IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.
Index Team
Bilibili Model License
Medium
en, zh
Ya
Spark TTS
Piawai
Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
Ya
GPT-SoVITS
Piawai
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
RVC-Boss
MIT
Slow
en, zh, ja, ko
Ya
Orpheus
Piawai
Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.
Canopy Labs
Llama 3.2 Community
Medium
en
Tidak
Qwen3 TTS
Piawai
Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
Ya
Chatterbox Turbo
Piawai
Chatterbox Turbo by Resemble AI is a 350M parameter upgrade to Chatterbox, delivering up to 6x real-time speed with sub-200ms latency. It supports paralinguistic tags like [laugh], [cough], and [chuckle] directly in text. Includes Perth watermarking on all generated audio for provenance tracking.
Resemble AI
MIT
Fast
en
Ya
Zonos
Piawai
Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
Ya
Dia 2
Piawai
Dia2 by Nari Labs is a streaming-first upgrade to Dia, available in 1B and 2B parameter variants. It begins synthesizing audio from the first few tokens, making it ideal for real-time voice agents and speech-to-speech pipelines. Supports multi-speaker dialogue with [S1]/[S2] tags and paralinguistic cues like (laughs), (coughs).
Nari Labs
Apache 2.0
Fast
en
Tidak
VoxCPM
Piawai
VoxCPM 1.5 by OpenBMB is a novel tokenizer-free TTS model that operates in continuous space rather than discrete tokens. It produces high-fidelity 44.1kHz audio, supports zero-shot voice cloning from 3-10 seconds, and maintains consistency across paragraphs. Cross-language cloning lets you apply an English voice to Chinese speech and vice versa.
OpenBMB
Apache 2.0
Fast
en, zh
Ya
TADA
Piawai
TADA (Text-Acoustic Dual Alignment) by Hume AI is a groundbreaking TTS model that eliminates hallucinations through a novel dual alignment architecture built on Llama 3.2. Available in 1B (English) and 3B (multilingual) variants, TADA achieves an RTF of 0.09 — 5x faster than comparable LLM-based TTS models. It supports up to 700 seconds of audio context and produces emotionally expressive speech with zero hallucinations on standard benchmarks.
Hume AI
MIT
Fast
en
Tidak
VibeVoice
Piawai
VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.
Microsoft
MIT
Fast
en, zh
Tidak
CosyVoice3
Piawai
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
Ya
Jadual Perbandingan Model
| Model | Pemaju: | Tajuk | Kualiti: | Kelajuan | bahasa | Klon Suara | VRAM | Lesen: | Kos | |
|---|---|---|---|---|---|---|---|---|---|---|
| Kokoro | Hexgrad | Free | Fast | 11 | 1.5GB | Apache 2.0 | Bebas | Guna | ||
| Piper | Rhasspy | Free | Fast | 31 | 0 (CPU only) | MIT | Bebas | Guna | ||
| VITS | Jaehyeon Kim et al. | Free | Fast | 4 | 1GB | MIT | Bebas | Guna | ||
| MeloTTS | MyShell.ai | Free | Fast | 6 | 0.5GB (GPU optional) | MIT | Bebas | Guna | ||
| Bark | Suno | Standard | Slow | 13 | 5GB | MIT | 2 | Guna | ||
| Bark Small | Suno | Standard | Medium | 13 | 2GB | MIT | 2 | Guna | ||
| CosyVoice 2 | Alibaba (Tongyi Lab) | Standard | Medium | 8 | 4GB | Apache 2.0 | 2 | Guna | ||
| Dia TTS | Nari Labs | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Guna | ||
| Parler TTS | Hugging Face | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Guna | ||
| GLM-TTS | Zhipu AI | Standard | Medium | 2 | 4GB | GLM-4 License | 2 | Guna | ||
| IndexTTS-2 | Index Team | Standard | Medium | 2 | 4GB | Bilibili Model License | 2 | Guna | ||
| Spark TTS | SparkAudio | Standard | Medium | 2 | 4GB | CC BY-NC-SA 4.0 | 2 | Guna | ||
| GPT-SoVITS | RVC-Boss | Standard | Slow | 4 | 6GB | MIT | 2 | Guna | ||
| Orpheus | Canopy Labs | Standard | Medium | 1 | 4GB | Llama 3.2 Community | 2 | Guna | ||
| Chatterbox | Resemble AI | Premium | Medium | 1 | 4GB | MIT | 4 | Guna | ||
| Tortoise TTS | James Betker | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Guna | ||
| StyleTTS 2 | Columbia University | Premium | Medium | 1 | 4GB | MIT | 4 | Guna | ||
| OpenVoice | MyShell.ai / MIT | Premium | Medium | 8 | 4GB | MIT | 4 | Guna | ||
| Qwen3 TTS | Alibaba (Qwen) | Standard | Medium | 10 | 7GB | Apache 2.0 | 2 | Guna | ||
| Sesame CSM | Sesame | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Guna | ||
| Chatterbox Turbo | Resemble AI | Standard | Fast | 1 | 2GB | MIT | 2 | Guna | ||
| Zonos | Zyphra | Standard | Medium | 5 | 6GB | Apache 2.0 | 2 | Guna | ||
| Dia 2 | Nari Labs | Standard | Fast | 1 | 4GB | Apache 2.0 | 2 | Guna | ||
| VoxCPM | OpenBMB | Standard | Fast | 2 | 4GB | Apache 2.0 | 2 | Guna | ||
| OuteTTS | OuteAI | Free | Fast | 1 | 2GB | Apache 2.0 | Bebas | Guna | ||
| TADA | Hume AI | Standard | Fast | 1 | 5GB | MIT | 2 | Guna | ||
| VibeVoice | Microsoft | Standard | Fast | 2 | 4GB | MIT | 2 | Guna | ||
| Pocket TTS | Kyutai | Free | Fast | 2 | 1GB | MIT | Bebas | Guna | ||
| Kitten TTS | KittenML | Free | Fast | 1 | 0GB | Apache 2.0 | Bebas | Guna | ||
| CosyVoice3 | Alibaba (FunAudioLLM) | Standard | Fast | 9 | 4GB | Apache 2.0 | 2 | Guna | ||
| MOSS-TTS | OpenMOSS | Premium | Medium | 19 | 16GB | Apache 2.0 | 4 | Guna | ||
| MegaTTS3 | ByteDance | Premium | Slow | 2 | 8GB | Apache 2.0 | 4 | Guna |
Platform Teks ke Tutur AI yang paling komprehensif
Kenapa Pilih TTS.ai untuk Teks ke Tutur?
TTS.ai menggabungkan model teks-ke-tutur sumber terbuka terbaik di dunia dalam satu platform yang mudah digunakan. Tidak seperti perkhidmatan milik yang mengunci anda dalam enjin suara tunggal, TTS.ai memberikan anda akses kepada 20+ model dari makmal penyelidikan terkemuka termasuk Coqui, MyShell, Amphion, NVIDIA, Suno, HuggingFace, Tsinghua University, dan lebih.
Setiap model adalah sumber terbuka di bawah MIT, Apache 2.0, atau lesen yang serupa, memastikan anda mempunyai hak komersial penuh untuk menggunakan audio yang dijana dalam projek anda. Sama ada anda memerlukan sintesis cepat, ringan untuk aplikasi masa nyata atau output kualiti studio premium untuk buku audio dan podcast, TTS.ai mempunyai model yang betul untuk setiap kes penggunaan.
Model Bebas, Tiada Akaun Diperlukan
Mulakan segera dengan tiga model TTS percuma: Piper (ultra-cepat, ringan), VITS (sintesis saraf berkualiti tinggi), dan MeloTTS (suport berbilang bahasa). Tiada pendaftaran, tiada kad kredit, tiada had pada generasi. Model percuma menyokong bahasa Inggeris dan berbilang bahasa lain dengan output bunyi semulajadi sesuai untuk kebanyakan aplikasi.
Pemprosesan Pemecut GPU
Semua model TTS berjalan pada GPU NVIDIA khusus untuk masa penjanaan pantas dan konsisten. Model percuma biasanya menjana audio dalam masa kurang daripada 2 saat. Model piawai seperti Kokoro, CosyVoice 2, dan Bark purata 3-5 saat. Model premium dengan kualiti tertinggi, seperti Tortoise dan Chatterbox, diproses dalam 5-15 saat bergantung pada panjang teks.
30+ Bahasa disokong
Janakan percakapan dalam lebih 30 bahasa termasuklah Bahasa Inggeris, Sepanyol, Perancis, Jerman, Itali, Portugis, Cina, Jepun, Korea, Arab, Hindi, Rusia, dan banyak lagi. Beberapa model menyokong sintesis lintas-bahasa, bermakna anda boleh cipta percakapan dalam bahasa yang suara asal tidak pernah dilatih. CosyVoice 2 dan GPT-SoVITS cemerlang dalam kloning suara lintas-bahasa.
API Sedia-Pembangun
Integrikan TTS.ai ke dalam aplikasi anda dengan API REST kami yang serasi dengan OpenAI. Satu titik akhir untuk semua model 20+. Python, JavaScript, cURL, dan Go SDKs. Sokongan streaming untuk aplikasi masa nyata. Pemprosesan berpasukan untuk penjanaan kandungan skala besar. Webhooks untuk pemberitahuan asinkron. Tersedia pada rancangan Pro dan Enterprise.
Soalan Lazim
Apa yang boleh kami perbaiki?
Mula Penukar Teks ke Tutur Sekarang
Sertai ribuan pencipta menggunakan TTS.ai. Dapatkan 15,000 karakter percuma dengan akaun baru. Model percuma tersedia tanpa mendaftar.