Åbn kildetekst til talemodeller

Hver TTS-model på vores platform er open source med kommercielt venlige licenser. MIT, Apache 2.0 Ingen proprietære lås-in, ingen brugsbegrænsninger, ingen overraskelse licensafgifter. Brug dem via vores hosted API, eller selvvært dem på din egen infrastruktur med fuld kontrol.

Åbn kilde MIT- licens Apache 2. 0 Self-HostableCity in California USA GitHub

Prøv det nu

Gratis med Kokoro, Piper, VITS, MeloTTS
Din genererede lyd vises her
Genereret
Download
Elsker TTS.ai? Fortæl dine venner!

Open Source TTS- fordele

Hvorfor open source-modeller betyder noget for dine projekter

Alle Open-Source licenseret

Hver model på TTS.ai bruger en eftergivende open source licens. Ingen proprietære sorte kasser, ingen leverandør lås-in, ingen uventede licensafgifter.

MIT / Apache 2.0

Modeller er licenseret under MIT eller Apache 2.0, de mest eftergivende open source-licenser. Brug kommercielt, modificere, omfordele nogen restriktioner.

Self-HostableCity in California USA

Download enhver model og køre det på din egen hardware. Fuld kontrol over dine data, latenstid og infrastruktur. Ingen cloud afhængighed kræves.

GPU optimeret

Modeller er optimeret til NVIDIA GPU'er med CUDA support. Piper kører kun på CPU. De fleste modeller har brug for 2-8GB VRAM til effektiv inferens.

Opretholdte fællesskaber

Aktive open source-fællesskaber vedligeholde og forbedre disse modeller. Bidrag velkomster indsende fejl, forbedringer og nye stemmer på GitHub.

Kommercielt brug OK

Alle modeller tillader kommerciel brug under deres licenser. Byg produkter, sælge tjenester, og skabe kommercielt indhold uden royalties eller brugsgebyrer.

Vores Open Source Model- katalog

Hver model, sin licens, og hvad den gør bedst

KokoroKokoro

Free

Lightweight 82M parameter model delivering studio-quality speech with blazing-fast inference.

Fast 5/5

Bedst til: Apache 2.0 Bedste kvalitet gratis model, 82M params, let at selvværd

Prøv Kokoro

PiperPiper

Free

A fast, local neural text to speech system optimized for Raspberry Pi and embedded devices.

Fast 3/5

Bedst til: MIT CPU-kun, perfekt til kant enheder og indlejret selv-hosting

Prøv Piper

VITSVITS

Free

Conditional variational autoencoder with adversarial learning for end-to-end text-to-speech.

Fast 3/5

Bedst til: MIT ~ grundlæggende arkitektur, der anvendes af mange downstream-modeller

Prøv VITS

BarkBark

Standard

Transformer-based text-to-audio model that generates realistic speech, music, and sound effects.

Slow 4/5

Bedst til: MIT ~ unikke lydgenerering kapaciteter ud over standard TTS

Prøv Bark

Tortoise TTSTortoise TTS

Premium

Multi-voice text-to-speech focused on quality with autoregressive architecture.

Slow 5/5 Stemmekløvning

Bedst til: Apache 2.0 ~ maksimal kvalitet, bredt studeret reference implementering

Prøv Tortoise TTS

OpenVoiceOpenVoice

Premium

Instant voice cloning with granular control over style, emotion, and accent.

Medium 4/5 Stemmekløvning

Bedst til: MIT ~ open source stemme kloning med granuleret stil kontrol

Prøv OpenVoice

Sådan bruges Open Source TTS

Brug vores hosted API eller køre modeller selv

1

Udforsk Open-Source-modeller

Gennemse vores katalog af 20 + open source TTS modeller. Hver model side viser licens, arkitektur, kapaciteter, og selv-hosting krav.

2

Prøv i din browser

Test enhver model direkte på TTS.ai uden at installere noget. Vores GPU-servere håndterer behandling, så du kan evaluere kvaliteten, før du forpligter sig til selv-hosting.

3

Selvoptaget eller brug vores API

Clone model repoer fra GitHub og køre lokalt, eller bruge vores hosted API til produktion. Self-hosting giver fuld kontrol; vores API giver styret infrastruktur.

4

Byg dit program

Integrer TTS i dit produkt ved hjælp af selvhostede modeller eller vores REST API. Alle modeller er kommercielt anvendelige uden licensafgifter eller royalties.

Licenssammenligning

Alle modeller på TTS.ai bruger kommercielt venlige open source-licenser

Model Licens Kommercielt brug Ændring Selvoptaget@ info: whatsthis Fordeling
Kokoro Apache 2.0 Krævet
Piper MIT Valgfrit
VITS MIT Valgfrit
MeloTTS MIT Valgfrit
Chatterbox MIT Valgfrit
Tortoise TTS Apache 2.0 Krævet
StyleTTS 2 MIT Valgfrit
OpenVoice MIT Valgfrit
Sesame CSM Apache 2.0 Krævet
Orpheus Llama 3.2 "Built with Llama"

Self-Hosting vs Hosted API

Kør modeller selv eller lad os håndtere infrastrukturen

Selvoptaget på din hardware

Hver model på TTS.ai er tilgængelig som en open source-projekt på GitHub eller Hugging Face. Hent vægtene, installere afhængigheder, og køre inferens på dine egne GPU'er. Du har fuld kontrol over latenstid, privatliv og skalering.

  • Fuld data beskyttelse af personlige oplysninger lyd forlader aldrig din server
  • Ingen omkostninger pr. anmodning efter den indledende opsætning
  • Brugerdefineret finjustering på dine egne data
  • Kræver GPU hardware (NVIDIA anbefales)
  • Du håndterer opdateringer, skalering og afhængigheder

Brug TTS.ai Hosted API

Få øjeblikkelig adgang til alle 20 + modeller gennem en enkelt REST API. Vi håndterer GPU levering, model opdateringer, køstyring, og skalering. En API-tasten giver dig adgang til hver model! ingen grund til at administrere separate implementeringer.

  • Ingen GPU- hardware nødvendig
  • Alle 20+ modeller gennem en API
  • Automatiske modelopdateringer og forbedringer
  • 99,9% oppetid med overflødig infrastruktur
  • Betal kun for hvad du bruger

Hurtig start: API eller Self-Host

Brug vores hosted API, eller installer Kokoro lokalt på få minutter

Mulighed 1: TTS.ai Hosted API Nemmeste
import requests

response = requests.post("https://api.tts.ai/v1/tts", json={
    "text": "Open source TTS with a simple API.",
    "model": "kokoro",
    "voice": "af_heart",
    "format": "wav"
}, headers={"Authorization": "Bearer YOUR_API_KEY"})

with open("output.wav", "wb") as f:
    f.write(response.content)
Mulighed 2: Self-Host med pip Fuld kontrol
# Install Kokoro locally
pip install kokoro

# Generate speech on your own GPU
import kokoro

pipeline = kokoro.KPipeline(lang_code="a")
generator = pipeline("Hello from your own server!", voice="af_heart")
for i, (gs, ps, audio) in enumerate(generator):
    kokoro.save(audio, f"output_{i}.wav")

Open Source, overkommelige priser

Vores hosted API gør open source TTS tilgængelig uden at administrere GPU'er.

Frit tier

$0

15.000 tegn på tilmelding

  • 4 open source-modeller gratis
  • Ingen tilmelding til grundlæggende brug
  • Tilladt kommerciel anvendelse

Starter

$9

500.000 tegn/måned

  • Alle 20+ open source-modeller
  • Stemmekloning
  • API- adgang

Pro

$29

2.000.000 tegn/måned

  • Prioriteret GPU-behandling
  • Alle præmiemodeller
  • Virksomhedsstøtte
Se fuld prissætning

Ofte stillede spørgsmål

Almindelige spørgsmål om open source- tekst til tale

Ja. Hver model på TTS.ai bruger en eftergivende open source-licens, enten MIT eller Apache 2.0. Vi udelukker specifikt modeller med restriktive licenser (som Coquis CPML eller ikke-kommercielle CC-BY-NC). Du kan kontrollere hver models licens på sit GitHub-arkiv.

Begge er eftergivende open source-licenser, der tillader kommerciel brug, ændring og omfordeling. Apache 2.0 tilføjer eksplicitte patenttilskud og kræver, at der angives ændringer, hvis du ændrer koden. MIT er enklere med færre krav. Begge er forretningsvenlige.

Ja. Hver model kan være selvværd. Klon modellen repository fra GitHub, installere afhængigheder, download model vægte, og køre inferens. Vi leverer dokumentation for hver models selv-hosting krav, herunder GPU, RAM, og Python version.

Kravene varierer efter model. Piper behøver ingen GPU (kun CPU). Kokoro og MeloTTS har brug for 1-2GB VRAM. De fleste standardmodeller har brug for 4GB VRAM. Tortoise og Sesam CSM har brug for 8GB. En NVIDIA RTX 3060 (12GB) kan køre de fleste modeller komfortabelt.

Ja. Open source licenser tillader modifikation herunder finjustering. Modeller som GPT-SoVITS og Bark giver finjusterende scripts. Du kan træne modeller på dine egne stemmedata til at skabe brugerdefinerede stemmer eller forbedre ydeevnen for bestemte sprog.

Top open source-modeller (Kokoro, Styletts 2, Chatterbox) matcher eller overstiger nu kommercielle tjenester som ElevenLabs og Google TTS i kvalitetsbenchmarks. Den største fordel ved kommercielle tjenester forvaltes infrastruktur og support, ikke lydkvalitet.

Vi har allerede udelukket dem. XTTS/XTTS-v2 (Coqui's CPML, F5-TTS (CC-BY-NC, ikke-kommerciel), og Higgs-v2 (Boson License ~ restriktive) blev alle fjernet. Hver model på TTS.ai er verificeret kommerciel brug sikker.

Ja. De fleste modeller accepterer samfundsbidrag via GitHub. Du kan indsende fejlrapporter, stemmeoptagelser til nye sprog, kodeforbedringer og dokumentation. Tjek hver models GitHub-arkiv for bidragsvejledninger og aktive spørgsmål.

Indlæs modeller on-demand og aflæs når du er i tomgang for at dele GPU-hukommelse. Vores GPU-server kører 20+-modeller på 4x Tesla P40 (96GB samlet VRAM) ved hjælp af dynamisk indlæsning. For selv-hosting, en enkelt 24GB GPU kan tjene 3-5 modeller samtidigt.

Mange modeller giver officielle Docker billeder eller Dockerfiles. For at køre flere modeller, kan du bygge en brugerdefineret Docker setup med NVIDIA Container Toolkit for GPU adgang. Vores API server arkitektur kan tjene som en reference implementering.

De fleste modeller kræver Python 3.100-3.12. Coqui TTS (VITS) specifikt behov Python 3.11. Vi anbefaler Python 3.12 for de fleste modeller. Tjek hver models krav.txt for præcis version kompatibilitet.

Ja. MIT og Apache 2.0 licenser tillader udtrykkeligt kommerciel brug. Du kan bygge SaaS-produkter, mobile apps, spil og tjenester ved hjælp af disse modeller uden licensafgifter, royalties eller tildelingskrav (selvom tildeling er værdsat).
5.0/5 (1)

Hvad kan vi forbedre? Din feedback hjælper os med at løse problemer.

Prøv Open Source TTS i dag

20 + open source-modeller, alle kommercielt licenserede. Brug vores API eller selvværd! valg er dit.