AI Text till tal
Konvertera text till naturligt ljudande tal med öppen källkod AI-modeller. Gratis att använda, inget konto krävs.
Radera din text i SSML-taggar för exakt kontroll:
<speak><prosody rate="slow">Slow speech</prosody></speak>
Lägga till känslor markörer för att påverka leverans (modellstöd varierar):
Definiera egna uttal (ord = uttal):
Förlaga till förlaga
VibeVoice
VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.
| Utvecklare: | Microsoft |
| Licens: | MIT |
| Varvtal | Fast |
| Kvalitet: | |
| språk | 2 språk |
| VRAM | 4GB |
| Röstförslutning | Stöds inte |
Tips för bättre resultat
- Använd korrekt interpunktion för naturliga pauser och intonation
- Uttala siffror och förkortningar för tydligare uttal
- Lägg till kommatecken för att skapa korta pauser mellan fraser
- Använd ellips (...) för längre dramatiska pauser
- Prova Kokoro eller CosyVoice 2 för de mest naturliga resultat
- Använd Dia för dialogruta för flera högtalare och podcast- innehåll
Teckenanvändning
| Nivå | Kostnad per 1K röding |
|---|---|
| Avgiftsfri | 0 tillgodohavanden (obegränsat) |
| Standardvärde | 2 hp / 1K rödingar |
| Bidrag | 4 hp / 1K rödingar |
Hur AI text till tal fungerar
Generera professionella kvalitetsröstomslag i tre enkla steg. Ingen teknisk kunskap krävs.
Skriv in din text
Skriv, klistra in eller ladda upp texten du vill konvertera till tal. Stöder upp till 5000 tecken per generation för inloggade användare. Använd vanlig text eller lägga till SSML- taggar för avancerad kontroll över uttal, pauser och betoning.
Välj modell och röst
Välj mellan 20+ AI-modeller över tre nivåer. Välj en röst som matchar ditt innehåll, välj ditt målspråk, justera uppspelningshastigheten från 0,5x till 2,0x och välj önskat utdataformat (MP3, WAV, OGG eller FLAC).
Generera och ladda ner
Klicka på Generera och ditt ljud är klart på några sekunder. Förhandsgranska med den inbyggda spelaren, ladda ner i ditt valda format, eller kopiera en delad länk. Använd API:et för batch bearbetning och integration i arbetsflödet.
Text till tal Använd fall
AI-drivna text-till-tal omvandlar hur människor skapar, konsumerar och interagerar med ljudinnehåll över dussintals industrier.
All text till talmodeller
Detaljerade specifikationer för varje AI-modell som finns på TTS.ai. Jämför kvalitet, hastighet, språkstöd och funktioner för att hitta den perfekta modellen för ditt projekt.
Kokoro
Free
Kokoro är en 82 miljoner parameter text-till-tal modell som slår väl över sin viktklass. Trots sin lilla storlek, det producerar anmärkningsvärt naturligt och uttrycksfullt tal. Kokoro stöder flera språk, inklusive engelska, japanska, kinesiska och koreanska med en mängd olika uttrycksfulla röster. Den kör otroligt snabbt - generera ljud nästan 100x snabbare än realtid på en GPU.
Hexgrad
Apache 2.0
Fast
en, ja, zh, ko, fr, de, it, pt, es, hi, ru
1.5GB
Ej tillämpligt
Avgiftsfri
Piper
Free
Piper är en lättviktig text-till-tal motor utvecklad av Rhasspy som använder VITS och struphuvud arkitekturer. Den körs helt på CPU, vilket gör den idealisk för kantenheter, hemautomation och applikationer som kräver offline TTS. Med över 100 röster över 30+ språk, Piper levererar naturligt ljudande tal i realtid hastigheter även på en Raspberry Pi 4.
Rhasspy
MIT
Fast
en, de, fr, es, it, pt, nl, pl, ru, zh, ja, ko, ar, cs, da, fi, el, hu, is, ka, kk, ne, no, ro, sk, sr, sv, sw, tr, uk, vi
0 (CPU only)
Ej tillämpligt
Avgiftsfri
VITS
Free
VITS (Variarational Inference with adversarial learning for end-to-end Text-to-Speech) är en parallell end-to-end TTS-metod som genererar mer naturligt ljud än nuvarande tvåstegsmodeller. Den antar variationell inference förstärkt med normaliserade flöden och en kontraarial träningsprocess, vilket ger en betydande förbättring i naturlighet.
Jaehyeon Kim et al.
MIT
Fast
en, zh, ja, ko
1GB
Ej tillämpligt
Avgiftsfri
MeloTTS
Free
Melotts by MyShell.ai är ett flerspråkigt TTS-bibliotek som stöder engelska (amerikanska, brittiska, indiska, australiska), spanska, franska, kinesiska, japanska och koreanska. Det är extremt snabbt, bearbeta text i nära realtid på CPU ensam. Melotts är utformad för produktion och stöder både CPU och GPU inference.
MyShell.ai
MIT
Fast
en, es, fr, zh, ja, ko
0.5GB (GPU optional)
Ej tillämpligt
Avgiftsfri
Bark
Standard
Bark by Suno är en transformatorbaserad text-till-audio modell som kan generera mycket realistiska, flerspråkiga tal samt andra ljud som musik, bakgrundsljud och ljudeffekter. Det kan producera icke-verbal kommunikation som skrattar, suckar och gråter. Bark stöder över 100 högtalare förinställningar och 13+ språk.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
5GB
Ej tillämpligt
2x
Bark Small
Standard
Bark Small är en destillerad version av Bark modellen som byter viss ljudkvalitet för betydligt snabbare inference hastigheter och lägre minneskrav. Det behåller Barks förmåga att generera tal med känslor, skratt och flera språk.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
2GB
Ej tillämpligt
2x
CosyVoice 2
Standard
CosyVoice 2 från Alibaba's Tongyi Lab uppnår mänsklig-jämförbar talkvalitet med extremt låg latens, vilket gör den idealisk för realtidsapplikationer. Den använder en finit skalära kvantiseringsmetod för streaming syntes och stöder noll-shot röst kloning, cross-lingual syntes och finkornig känsla kontroll. Det överträffar många kommersiella TTS-system i subjektiva utvärderingar.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
4GB
Ja, det är jag.
2x
Dia TTS
Standard
Dia by Nari Labs är en 1,6B-parameter för text-till-tal-modell som utformats speciellt för att skapa dialog med flera talare. Dia är perfekt för att skapa podcast-innehåll, ljudboksdialoger och interaktiv konversations AI.
Nari Labs
Apache 2.0
Medium
en
4GB
Ej tillämpligt
2x
Parler TTS
Standard
Parler TTS är en text-till-tal modell som använder naturliga språk röstbeskrivningar för att styra det genererade talet. I stället för att välja från förinställda röster, beskriver du den röst du vill ha (t.ex., "en varm kvinnlig röst med en liten brittisk accent, talar långsamt och tydligt") och Parler genererar tal matchar den beskrivningen. Detta gör den unikt flexibel för kreativa applikationer.
Hugging Face
Apache 2.0
Medium
en
4GB
Ej tillämpligt
2x
GLM-TTS
Standard
GLM-TTS by Zhipu AI är ett text-till-tal system byggt på Llama arkitektur med flödesmatchning. Det uppnår den lägsta teckenfelsfrekvensen bland öppen källkod TTS-modeller, vilket innebär att det producerar den mest exakta uttalet. GLM-TTS stöder engelska och kinesiska med röst kloning från 3-10 sekund ljudprover.
Zhipu AI
GLM-4 License
Medium
en, zh
4GB
Ja, det är jag.
2x
IndexTTS-2
Standard
IndexTTS-2 är ett avancerat text-till-tal-system som utmärker sig vid noll-sprängd röstsyntes med finkornig känslokontroll. Det kan generera tal med specifika emotionella toner som glada, sorgsna, arga eller rädda utan att kräva känslospecifika träningsdata. Modellen använder känslovektorer för att exakt kontrollera det emotionella uttrycket av genererat tal.
Index Team
Bilibili Model License
Medium
en, zh
4GB
Ja, det är jag.
2x
Spark TTS
Standard
Spark TTS by SparkAudio är en text-till-tal modell som kombinerar röst kloning med kontrollerbara känslor och talande stil. Med bara 5 sekunders referensljud, kan det klona en röst och sedan generera tal med olika känslor, hastigheter och stilar samtidigt som klonad röst identitet. Spark TTS använder en snabb-baserat styrsystem.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
4GB
Ja, det är jag.
2x
GPT-SoVITS
Standard
GPT-Sovits kombinerar GPT-språkmodellering med SoVITS (Singing Voice Inference via Translation and Synthesis) för kraftfull röstkloning med få bilder. Med så lite som 5 sekunders referensljud kan den exakt klona en röst och generera nytt tal samtidigt som talarens unika egenskaper bevaras. Den utmärker sig både vid tal- och sångröstsyntes.
RVC-Boss
MIT
Slow
en, zh, ja, ko
6GB
Ja, det är jag.
2x
Orpheus
Standard
Orfeus är en storskalig text-till-tal modell som uppnår mänskliga-nivå emotionella uttryck. Utbildad på över 100.000 timmar av olika taldata, det utmärker sig på att generera tal med naturliga känslor, betoning, och tala stilar. Orfeus kan producera tal som är praktiskt taget oskiljaktiga från mänskliga inspelningar.
Canopy Labs
Llama 3.2 Community
Medium
en
4GB
Ej tillämpligt
2x
Chatterbox
Premium
Chatterbox av Resemble AI är en banbrytande noll-shot röst kloning modell. Det kan replikera varje röst från ett enda ljudprov med anmärkningsvärd noggrannhet, fånga inte bara timbre men också talande stil och emotionella nyanser. Chatterbox har också finkornig känsla kontroll, så att du kan justera den känslomässiga tonen i det genererade talet oberoende av röstidentiteten.
Resemble AI
MIT
Medium
en
4GB
Ja, det är jag.
4x
Tortoise TTS
Premium
Tortoise TTS är ett automatiskt regressivt flerröststext-till-tal-system som prioriterar ljudkvalitet över hastighet. Det använder DALL-E-inspirerad arkitektur för att generera mycket naturligt tal med utmärkt prosody och högtalare likhet. Även långsammare än många alternativ, Tortoise producerar några av de mest realistiska syntetiska tal som finns i open-source ekosystemet.
James Betker
Apache 2.0
Slow
en
8GB
Ja, det är jag.
4x
StyleTTS 2
Premium
StyleTTS 2 uppnår human-nivå TTS-syntes genom att kombinera stilspridning med kontradiktorisk träning med hjälp av stora språkmodeller. Det genererar det mest naturliga klingande talet bland enkelhögtalare modeller, rivaliserande mänskliga inspelningar. StyleTTS 2 använder diffusion-baserad stil modellering för att fånga hela sortimentet av mänskliga talvariationer.
Columbia University
MIT
Medium
en
4GB
Ej tillämpligt
4x
OpenVoice
Premium
OpenVoice av MyShell.ai möjliggör omedelbar röstkloning med granulär kontroll över röststil, känslor, accent, rytm, pauser och intonation. Det kan klona en röst från ett kort ljudklipp och generera tal i flera språk samtidigt som högtalarens identitet. OpenVoice fungerar också som en röstkonverterare, vilket tillåter realtids röstomvandling.
MyShell.ai / MIT
MIT
Medium
en, zh, ja, ko, fr, de, es, it
4GB
Ja, det är jag.
4x
Qwen3 TTS
Standard
Qwen3-TTS är en 1,7 miljarder parameter text-till-tal modell från Alibabas Qwen team. Den stöder tre lägen: förinställda röster med känsla kontroll (9 högtalare), röst kloning från bara 3 sekunder av ljud, och en unik röst design läge där du beskriver den röst du vill ha i naturligt språk. Den täcker 10 språk med hög uttrycksfullhet och naturlig prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
7GB
Ja, det är jag.
2x
Sesame CSM
Premium
Sesam CSM (Conversational Speech Model) är en 1 miljard parameter modell som utformats speciellt för att generera konversationstal. Den modellerar de naturliga mönster av mänskligt samtal inklusive tur-taking timing, backchannel svar, emotionella reaktioner och konversationsflöde. CSM genererar ljud som låter som en naturlig mänsklig konversation snarare än syntetiskt tal.
Sesame
Apache 2.0
Slow
en
8GB
Ej tillämpligt
4x
Chatterbox Turbo
Standard
Chatterbox Turbo by Resemble AI är en 350M parameter uppgradering till Chatterbox, leverera upp till 6x realtidshastighet med sub- 200ms latency. Den stöder paralinguistiska taggar som [skratt], [cough] och [chuckle] direkt i text. Inkluderar Perth vattenmarkering på alla genererade ljud för härkomst spårning.
Resemble AI
MIT
Fast
en
2GB
Ja, det är jag.
2x
Zonos
Standard
Zonos v0.1 av Zyphra är en 1,6B parametermodell med finkornig känsla kontroll med reglagen för lycka, ilska, sorg, rädsla och överraskning. Det erbjuder både en Transformer och en ny SSM (state-space modell) variant. Tränad på 200K+ timmar flerspråkigt tal med noll-shot röst kloning från 10-30 sekunder referensljud.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
6GB
Ja, det är jag.
2x
Dia 2
Standard
Dia2 by Nari Labs är en streaming-första uppgradering till Dia, som finns i parametervarianter 1B och 2B. Den börjar syntetisera ljud från de första få tokens, vilket gör den idealisk för röstagenter i realtid och tal-till-tal pipelines. Stöder dialog med flera högtalare med [S1]/[S2] taggar och paralinguistiska signaler som (skrattar), (pipor).
Nari Labs
Apache 2.0
Fast
en
4GB
Ej tillämpligt
2x
VoxCPM
Standard
VoxCPM 1.5 av OpenBMB är en ny tokenizer-fri TTS-modell som fungerar i kontinuerligt utrymme snarare än diskreta tokens. Den producerar hög-fidelity 44,1kHz ljud, stöder noll-shot röst kloning från 3-10 sekunder, och upprätthåller konsekvens över stycken. Cross-språk kloning låter dig tillämpa en engelsk röst till kinesiska tal och vice versa.
OpenBMB
Apache 2.0
Fast
en, zh
4GB
Ja, det är jag.
2x
OuteTTS
Free
Outetts utökar stora språkmodeller med text-till-tal-funktioner samtidigt som den ursprungliga arkitekturen bevaras. Den stöder flera bakgrundsprogram, inklusive lama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, och även webbläsarinferens via Transformers.js. Funktioner noll-shot röst kloning genom högtalarprofiler sparade som JSON.
OuteAI
Apache 2.0
Fast
en
2GB
Ja, det är jag.
Avgiftsfri
TADA
Standard
TADA (Text-Acoustic Dual Alignment) av Hume AI är en banbrytande TTS-modell som eliminerar hallucinationer genom en ny arkitektur för dubbeljustering byggd på Llama 3.2. Finns i 1B (engelska) och 3B (flerspråkiga) varianter, uppnår TADA en RTF på 0,09 – 5x snabbare än jämförbara LLM-baserade TTS-modeller. Den stöder upp till 700 sekunders ljudkontext och producerar känslomässigt uttrycksfulla tal med noll hallucinationer på standardriktmärken.
Hume AI
MIT
Fast
en
5GB
Ej tillämpligt
2x
VibeVoice
Standard
VibeVoice från Microsoft finns i två varianter: en 1.5B-modell för långformigt innehåll (upp till 90 minuter, 4 högtalare) och en Realtime 0.5B-modell för streaming med ~200ms första ljudlatens. 1.5B-varianten utmärker sig vid podcasts och ljudböcker med högtalarkonsistens över långa passager. Observera: Microsoft tog bort TTS-kod från arkivet och genererade ljud inkluderar hörbara AI-disclaimers.
Microsoft
MIT
Fast
en, zh
4GB
Ej tillämpligt
2x
Pocket TTS
Free
Pocket TTS by Kyutai (skapare av Moshi) är en kompakt 100M parameter text-till-tal modell som slår väl över sin vikt. Den körs effektivt på CPU, stöder noll-shot röst kloning från ett enda ljudprov, och producerar naturligt ljudande tal. Den lilla modellstorleken gör den idealisk för kant distribution och låg-resurs miljöer.
Kyutai
MIT
Fast
en, fr
1GB
Ja, det är jag.
Avgiftsfri
Kitten TTS
Free
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
en
0GB
Ej tillämpligt
Avgiftsfri
CosyVoice3
Standard
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
4GB
Ja, det är jag.
2x
MOSS-TTS
Premium
MOSS-TTS from OpenMOSS supports generation of up to 1 hour of continuous speech across 20 languages. Features token-level duration control, phoneme-level pronunciation control via IPA/Pinyin, and code-switching between languages. The 8B production model delivers state-of-the-art quality with zero-shot voice cloning from reference audio.
OpenMOSS
Apache 2.0
Medium
en, zh, de, es, fr, ja, it, hu, ko, ru, fa, ar, pl, pt, cs, da, sv, el, tr
16GB
Ja, det är jag.
4x
MegaTTS3
Premium
MegaTTS3 from ByteDance uses a novel sparse alignment mechanism combined with a latent diffusion transformer. Features adjustable trade-off between speech intelligibility and speaker similarity for zero-shot voice cloning.
ByteDance
Apache 2.0
Slow
en, zh
8GB
Ja, det är jag.
4x
Kokoro
Avgiftsfri
Kokoro is an 82 million parameter text-to-speech model that punches well above its weight class. Despite its tiny size, it produces remarkably natural and expressive speech. Kokoro supports multiple languages including English, Japanese, Chinese, and Korean with a variety of expressive voices. It runs incredibly fast — generating audio nearly 100x faster than real-time on a GPU.
Hexgrad
Apache 2.0
Fast
Piper
Avgiftsfri
Piper is a lightweight text-to-speech engine developed by Rhasspy that uses VITS and larynx architectures. It runs entirely on CPU, making it ideal for edge devices, home automation, and applications requiring offline TTS. With over 100 voices across 30+ languages, Piper delivers natural-sounding speech at real-time speeds even on a Raspberry Pi 4.
Rhasspy
MIT
Fast
VITS
Avgiftsfri
VITS (Variational Inference with adversarial learning for end-to-end Text-to-Speech) is a parallel end-to-end TTS method that generates more natural sounding audio than current two-stage models. It adopts variational inference augmented with normalizing flows and an adversarial training process, achieving a significant improvement in naturalness.
Jaehyeon Kim et al.
MIT
Fast
MeloTTS
Avgiftsfri
MeloTTS by MyShell.ai is a multilingual TTS library supporting English (American, British, Indian, Australian), Spanish, French, Chinese, Japanese, and Korean. It is extremely fast, processing text at near real-time speed on CPU alone. MeloTTS is designed for production use and supports both CPU and GPU inference.
MyShell.ai
MIT
Fast
OuteTTS
Avgiftsfri
OuteTTS extends large language models with text-to-speech capabilities while preserving the original architecture. It supports multiple backends including llama.cpp (CPU/GPU), Hugging Face Transformers, ExLlamaV2, VLLM, and even browser inference via Transformers.js. Features zero-shot voice cloning through speaker profiles saved as JSON.
OuteAI
Apache 2.0
Fast
Pocket TTS
Avgiftsfri
Pocket TTS by Kyutai (creators of Moshi) is a compact 100M parameter text-to-speech model that punches well above its weight. It runs efficiently on CPU, supports zero-shot voice cloning from a single audio sample, and produces natural-sounding speech. The small model size makes it ideal for edge deployment and low-resource environments.
Kyutai
MIT
Fast
Kitten TTS
Avgiftsfri
Kitten TTS by KittenML is an ultra-lightweight text-to-speech model built on ONNX. With variants from 15M to 80M parameters (25-80 MB on disk), it delivers high-quality voice synthesis on CPU without requiring a GPU. Features 8 built-in voices, adjustable speech speed, and built-in text preprocessing for numbers, currencies, and units. Ideal for edge deployment and low-latency applications.
KittenML
Apache 2.0
Fast
Bark
Standardvärde
Bark by Suno is a transformer-based text-to-audio model that can generate highly realistic, multilingual speech as well as other audio like music, background noise, and sound effects. It can produce nonverbal communications like laughing, sighing, and crying. Bark supports over 100 speaker presets and 13+ languages.
Suno
MIT
Slow
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Ej tillämpligt
Bark Small
Standardvärde
Bark Small is a distilled version of the Bark model that trades some audio quality for significantly faster inference speeds and lower memory requirements. It retains Bark's ability to generate speech with emotions, laughter, and multiple languages.
Suno
MIT
Medium
en, zh, fr, de, hi, it, ja, ko, pl, pt, ru, es, tr
Ej tillämpligt
CosyVoice 2
Standardvärde
CosyVoice 2 by Alibaba's Tongyi Lab achieves human-comparable speech quality with extremely low latency, making it ideal for real-time applications. It uses a finite scalar quantization approach for streaming synthesis and supports zero-shot voice cloning, cross-lingual synthesis, and fine-grained emotion control. It outperforms many commercial TTS systems in subjective evaluations.
Alibaba (Tongyi Lab)
Apache 2.0
Medium
en, zh, ja, ko, fr, de, it, es
Ja, det är jag.
Dia TTS
Standardvärde
Dia by Nari Labs is a 1.6B parameter text-to-speech model designed specifically for generating multi-speaker dialogue. It can produce natural-sounding conversations between two speakers with appropriate turn-taking, prosody, and emotional expression. Dia is perfect for creating podcast-style content, audiobook dialogues, and interactive conversational AI.
Nari Labs
Apache 2.0
Medium
en
Ej tillämpligt
Parler TTS
Standardvärde
Parler TTS is a text-to-speech model that uses natural language voice descriptions to control the generated speech. Instead of selecting from preset voices, you describe the voice you want (e.g., "a warm female voice with a slight British accent, speaking slowly and clearly") and Parler generates speech matching that description. This makes it uniquely flexible for creative applications.
Hugging Face
Apache 2.0
Medium
en
Ej tillämpligt
GLM-TTS
Standardvärde
GLM-TTS by Zhipu AI is a text-to-speech system built on the Llama architecture with flow matching. It achieves the lowest character error rate among open-source TTS models, meaning it produces the most accurate pronunciation. GLM-TTS supports English and Chinese with voice cloning from 3-10 second audio samples.
Zhipu AI
GLM-4 License
Medium
en, zh
Ja, det är jag.
IndexTTS-2
Standardvärde
IndexTTS-2 is an advanced text-to-speech system that excels at zero-shot voice synthesis with fine-grained emotion control. It can generate speech with specific emotional tones like happy, sad, angry, or fearful without requiring emotion-specific training data. The model uses emotion vectors to precisely control the emotional expression of generated speech.
Index Team
Bilibili Model License
Medium
en, zh
Ja, det är jag.
Spark TTS
Standardvärde
Spark TTS by SparkAudio is a text-to-speech model that combines voice cloning with controllable emotion and speaking style. Using just 5 seconds of reference audio, it can clone a voice and then generate speech with different emotions, speeds, and styles while maintaining the cloned voice identity. Spark TTS uses a prompt-based control system.
SparkAudio
CC BY-NC-SA 4.0
Medium
en, zh
Ja, det är jag.
GPT-SoVITS
Standardvärde
GPT-SoVITS combines GPT-style language modeling with SoVITS (Singing Voice Inference via Translation and Synthesis) for powerful few-shot voice cloning. With as little as 5 seconds of reference audio, it can accurately clone a voice and generate new speech while preserving the speaker's unique characteristics. It excels at both speaking and singing voice synthesis.
RVC-Boss
MIT
Slow
en, zh, ja, ko
Ja, det är jag.
Orpheus
Standardvärde
Orpheus is a large-scale text-to-speech model that achieves human-level emotional expression. Trained on over 100,000 hours of diverse speech data, it excels at generating speech with natural emotions, emphasis, and speaking styles. Orpheus can produce speech that is virtually indistinguishable from human recordings.
Canopy Labs
Llama 3.2 Community
Medium
en
Ej tillämpligt
Qwen3 TTS
Standardvärde
Qwen3-TTS is a 1.7 billion parameter text-to-speech model from Alibaba's Qwen team. It supports three modes: preset voices with emotion control (9 speakers), voice cloning from just 3 seconds of audio, and a unique voice design mode where you describe the voice you want in natural language. It covers 10 languages with high expressiveness and natural prosody.
Alibaba (Qwen)
Apache 2.0
Medium
en, zh, ja, ko, de, fr, ru, pt, es, it
Ja, det är jag.
Chatterbox Turbo
Standardvärde
Chatterbox Turbo by Resemble AI is a 350M parameter upgrade to Chatterbox, delivering up to 6x real-time speed with sub-200ms latency. It supports paralinguistic tags like [laugh], [cough], and [chuckle] directly in text. Includes Perth watermarking on all generated audio for provenance tracking.
Resemble AI
MIT
Fast
en
Ja, det är jag.
Zonos
Standardvärde
Zonos v0.1 by Zyphra is a 1.6B parameter model featuring fine-grained emotion control with sliders for happiness, anger, sadness, fear, and surprise. It offers both a Transformer and a novel SSM (state-space model) variant. Trained on 200K+ hours of multilingual speech with zero-shot voice cloning from 10-30 seconds of reference audio.
Zyphra
Apache 2.0
Medium
en, ja, zh, fr, de
Ja, det är jag.
Dia 2
Standardvärde
Dia2 by Nari Labs is a streaming-first upgrade to Dia, available in 1B and 2B parameter variants. It begins synthesizing audio from the first few tokens, making it ideal for real-time voice agents and speech-to-speech pipelines. Supports multi-speaker dialogue with [S1]/[S2] tags and paralinguistic cues like (laughs), (coughs).
Nari Labs
Apache 2.0
Fast
en
Ej tillämpligt
VoxCPM
Standardvärde
VoxCPM 1.5 by OpenBMB is a novel tokenizer-free TTS model that operates in continuous space rather than discrete tokens. It produces high-fidelity 44.1kHz audio, supports zero-shot voice cloning from 3-10 seconds, and maintains consistency across paragraphs. Cross-language cloning lets you apply an English voice to Chinese speech and vice versa.
OpenBMB
Apache 2.0
Fast
en, zh
Ja, det är jag.
TADA
Standardvärde
TADA (Text-Acoustic Dual Alignment) by Hume AI is a groundbreaking TTS model that eliminates hallucinations through a novel dual alignment architecture built on Llama 3.2. Available in 1B (English) and 3B (multilingual) variants, TADA achieves an RTF of 0.09 — 5x faster than comparable LLM-based TTS models. It supports up to 700 seconds of audio context and produces emotionally expressive speech with zero hallucinations on standard benchmarks.
Hume AI
MIT
Fast
en
Ej tillämpligt
VibeVoice
Standardvärde
VibeVoice from Microsoft generates long-form speech up to 90 minutes with support for 4 simultaneous speakers, making it ideal for podcasts and dialogues. The Realtime 0.5B variant achieves ~300ms latency for interactive use. Supports speaker tags for multi-turn dialogue generation.
Microsoft
MIT
Fast
en, zh
Ej tillämpligt
CosyVoice3
Standardvärde
CosyVoice3 is the latest evolution from Alibaba's FunAudioLLM team. It features bi-streaming inference with ~150ms latency, instruction-based control for emotion/speed/volume, and improved speaker similarity for zero-shot cloning. Supports 9 languages plus 18 Chinese dialects. RL-tuned variant delivers state-of-the-art prosody.
Alibaba (FunAudioLLM)
Apache 2.0
Fast
en, zh, ja, ko, de, es, fr, it, ru
Ja, det är jag.
Förlaga till jämförelsetabell
| Förlaga | Utvecklare: | Nivå | Kvalitet: | Varvtal | språk | Röstförslutning | VRAM | Licens: | krediter | |
|---|---|---|---|---|---|---|---|---|---|---|
| Kokoro | Hexgrad | Free | Fast | 11 | 1.5GB | Apache 2.0 | Avgiftsfri | Användning | ||
| Piper | Rhasspy | Free | Fast | 31 | 0 (CPU only) | MIT | Avgiftsfri | Användning | ||
| VITS | Jaehyeon Kim et al. | Free | Fast | 4 | 1GB | MIT | Avgiftsfri | Användning | ||
| MeloTTS | MyShell.ai | Free | Fast | 6 | 0.5GB (GPU optional) | MIT | Avgiftsfri | Användning | ||
| Bark | Suno | Standard | Slow | 13 | 5GB | MIT | 2 | Användning | ||
| Bark Small | Suno | Standard | Medium | 13 | 2GB | MIT | 2 | Användning | ||
| CosyVoice 2 | Alibaba (Tongyi Lab) | Standard | Medium | 8 | 4GB | Apache 2.0 | 2 | Användning | ||
| Dia TTS | Nari Labs | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Användning | ||
| Parler TTS | Hugging Face | Standard | Medium | 1 | 4GB | Apache 2.0 | 2 | Användning | ||
| GLM-TTS | Zhipu AI | Standard | Medium | 2 | 4GB | GLM-4 License | 2 | Användning | ||
| IndexTTS-2 | Index Team | Standard | Medium | 2 | 4GB | Bilibili Model License | 2 | Användning | ||
| Spark TTS | SparkAudio | Standard | Medium | 2 | 4GB | CC BY-NC-SA 4.0 | 2 | Användning | ||
| GPT-SoVITS | RVC-Boss | Standard | Slow | 4 | 6GB | MIT | 2 | Användning | ||
| Orpheus | Canopy Labs | Standard | Medium | 1 | 4GB | Llama 3.2 Community | 2 | Användning | ||
| Chatterbox | Resemble AI | Premium | Medium | 1 | 4GB | MIT | 4 | Användning | ||
| Tortoise TTS | James Betker | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Användning | ||
| StyleTTS 2 | Columbia University | Premium | Medium | 1 | 4GB | MIT | 4 | Användning | ||
| OpenVoice | MyShell.ai / MIT | Premium | Medium | 8 | 4GB | MIT | 4 | Användning | ||
| Qwen3 TTS | Alibaba (Qwen) | Standard | Medium | 10 | 7GB | Apache 2.0 | 2 | Användning | ||
| Sesame CSM | Sesame | Premium | Slow | 1 | 8GB | Apache 2.0 | 4 | Användning | ||
| Chatterbox Turbo | Resemble AI | Standard | Fast | 1 | 2GB | MIT | 2 | Användning | ||
| Zonos | Zyphra | Standard | Medium | 5 | 6GB | Apache 2.0 | 2 | Användning | ||
| Dia 2 | Nari Labs | Standard | Fast | 1 | 4GB | Apache 2.0 | 2 | Användning | ||
| VoxCPM | OpenBMB | Standard | Fast | 2 | 4GB | Apache 2.0 | 2 | Användning | ||
| OuteTTS | OuteAI | Free | Fast | 1 | 2GB | Apache 2.0 | Avgiftsfri | Användning | ||
| TADA | Hume AI | Standard | Fast | 1 | 5GB | MIT | 2 | Användning | ||
| VibeVoice | Microsoft | Standard | Fast | 2 | 4GB | MIT | 2 | Användning | ||
| Pocket TTS | Kyutai | Free | Fast | 2 | 1GB | MIT | Avgiftsfri | Användning | ||
| Kitten TTS | KittenML | Free | Fast | 1 | 0GB | Apache 2.0 | Avgiftsfri | Användning | ||
| CosyVoice3 | Alibaba (FunAudioLLM) | Standard | Fast | 9 | 4GB | Apache 2.0 | 2 | Användning | ||
| MOSS-TTS | OpenMOSS | Premium | Medium | 19 | 16GB | Apache 2.0 | 4 | Användning | ||
| MegaTTS3 | ByteDance | Premium | Slow | 2 | 8GB | Apache 2.0 | 4 | Användning |
Den mest omfattande AI-text till talplattform
Varför välja TTS.ai för text till tal?
TTS.ai samlar världens bästa text-till-tal-modeller med öppen källkod i en enda, lättanvänd plattform. Till skillnad från egenutvecklade tjänster som låser in dig i en enda röstmotor, ger TTS.ai dig tillgång till 20+ modeller från ledande forskningslabb, inklusive Coqui, MyShell, Amfion, NVIDIA, Suno, HuggingFace, Tsinghua University, med mera.
Varje modell är öppen källkod under MIT, Apache 2.0, eller liknande tillåtande licenser, vilket säkerställer att du har fullständiga kommersiella rättigheter att använda genererat ljud i dina projekt. Oavsett om du behöver snabb, lätt syntes för realtidsapplikationer eller premium studio-kvalitet utgång för ljudböcker och podcasts, har TTS.ai rätt modell för varje användningsfall.
Gratis modeller, inget konto krävs
Kom igång omedelbart med tre gratis TTS-modeller: Piper (ultrasnabb, lätt), VITS (högkvalitativ neural syntes) och MeloTTS (flerspråksstöd). Ingen registrering, inget kreditkort, inga begränsningar på generationer. Gratis modeller stöder engelska och flera andra språk med naturlig-ljudande utgång lämplig för de flesta applikationer.
GPU-accelererad bearbetning
Alla TTS-modeller körs på dedikerade NVIDIA GPU:er för snabba, konsekventa genereringstider. Fria modeller genererar normalt ljud på under 2 sekunder. Standardmodeller som Kokoro, CosyVoice 2 och Bark i genomsnitt 3-5 sekunder. Premiummodeller med högsta kvalitet, såsom Tortoise och Chatterbox, bearbetar på 5-15 sekunder beroende på textlängd.
30+ Språk som stöds
Generera tal på över 30 språk, inklusive engelska, spanska, franska, tyska, italienska, portugisiska, kinesiska, japanska, koreanska, arabiska, hindi, ryska, och många fler. Flera modeller stöder tvärspråkig syntes, vilket innebär att du kan generera tal på ett språk som den ursprungliga rösten aldrig tränades på. CosyVoice 2 och GPT-SoVITS utmärker sig på cross-lingual röst kloning.
Utvecklarklar API
Integrera TTS.ai i dina applikationer med vårt OpenAI-kompatibla REST API. Ett effektmått för alla 20+ modeller. Python, JavaScript, cURL och Go SDKs. Streamingstöd för realtidsapplikationer. Batchbehandling för storskalig innehållsgenerering. Webhooks för async-aviseringar. Tillgänglig på Pro och Enterprise planer.
Vanliga frågor
Vad kan vi förbättra? Din feedback hjälper oss att lösa problem.
Börja konvertera text till tal nu
Gå med tusentals skapare med TTS.ai. Få 15000 fria tecken med ett nytt konto. Gratis modeller tillgängliga utan registrering.