Åpne kildetekst til talemodeller

Hver TTS- modell på vår plattform er åpen kildekode med kommersielt vennlige lisenser. MIT, Apache 2. 0 – ingen proprietære innlåsingsrestriksjoner, ingen bruksrestriksjoner, ingen overraskningsgebyrer. Bruk dem gjennom vårt API, eller vert dem selv på din egen infrastruktur med full kontroll.

Åpne kildekode MIT-lisens Apache 2. 0 Selvstendig vert GitHub

Prøv det nå

Fri med Kokoro, Piper, VITS, MeloTTS
Din genererte lyd vil vises her
Generert
Last ned
Elsker TTS.ai? Fortell vennene dine!

TTS-fordeler med åpen kildekode

Hvorfor åpen kildekode-modeller er viktige for prosjektene dine

Alle åpne kildekode lisensiert

Hver modell på TTS.ai bruker en ettergivende åpen kildekode-lisens. Ingen proprietære svarte bokser, ingen leverandørlåsing, ingen uventede lisensavgifter.

MIT / Apache 2. 0

Modeller er lisensiert i henhold til MIT eller Apache 2. 0, de mest ettergivende åpen kildekode- lisensene. Bruk kommersielt, endre, videreformidle - ingen restriksjoner.

Selvstendig vert

Last ned alle modeller og kjør dem på din egen maskinvare. Full kontroll over dine data, latens og infrastruktur. Ikke nødvendig med sky- avhengighet.

GPU-optimert

Modeller er optimalisert for NVIDIA GPUer med CUDA- støtte. Piper kjører bare på CPU. De fleste modeller trenger 2-8GB VRAM for å få effektiv konklusjon.

Vedlikeholdt i Fellesskapet

Aktive åpne kildekode- samfunn vedlikeholder og forbedrer disse modellene. Bidrag velkommen – send inn feilsøk, forbedringer og nye stemmer på GitHub.

Kommersiell bruk OK

Alle modeller tillater kommersiell bruk i henhold til lisensene deres. Bygg produkter, selger tjenester og lager kommersielt innhold uten royalties eller bruksgebyrer.

Vår modellkatalog med åpen kildekode

Hver modell, lisens og hva den gjør best

KokoroKokoro

Free

Lightweight 82M parameter model delivering studio-quality speech with blazing-fast inference.

Fast 5/5

Best for: Apache 2.0 — modell av beste kvalitet, 82M-parametrer, lett å selvvært

Forsøk Kokoro

PiperPiper

Free

A fast, local neural text to speech system optimized for Raspberry Pi and embedded devices.

Fast 3/5

Best for: MIT — prosessor bare, perfekt til kantenheter og innebygd egenvert

Forsøk Piper

VITSVITS

Free

Conditional variational autoencoder with adversarial learning for end-to-end text-to-speech.

Fast 3/5

Best for: MIT — grunnlagsarkitektur som brukes av mange nedstrømsmodeller

Forsøk VITS

BarkBark

Standard

Transformer-based text-to-audio model that generates realistic speech, music, and sound effects.

Slow 4/5

Best for: MIT — unike lydgenereringskapasiteter ut over standard TTS

Forsøk Bark

Tortoise TTSTortoise TTS

Premium

Multi-voice text-to-speech focused on quality with autoregressive architecture.

Slow 5/5 Stemmekloning

Best for: Apache 2.0 — Høyeste kvalitet, allment undersøkt referansegjennomføring

Forsøk Tortoise TTS

OpenVoiceOpenVoice

Premium

Instant voice cloning with granular control over style, emotion, and accent.

Medium 4/5 Stemmekloning

Best for: MIT — åpen kildekode-talekloning med kornet stilstyring

Forsøk OpenVoice

Hvordan åpne TTS brukes

Bruk vår verts- API eller kjør modeller selv

1

Utforsk åpen kildekode- modeller

Bla gjennom vår katalog over 20+ open- source TTS- modeller. Hver modellside viser lisens, arkitektur, muligheter og krav til egenvert.

2

Prøv i nettleseren din

Test alle modeller direkte på TTS.ai uten å installere noe. Våre GPU-tjenere håndterer behandling slik at du kan evaluere kvaliteten før du går på egenvert.

3

Selvvært eller bruk vårt API

Klonemodell- gjenkjøp fra GitHub og kjør lokalt, eller bruk vårt verts- API til produksjon. Selvvært gir full kontroll; vårt API tilbyr styrt infrastruktur.

4

Bygg programmet ditt

Integrer TTS i ditt produkt ved hjelp av egne modeller eller vårt REST API. Alle modeller er kommersielt brukbare uten lisensavgifter eller royalties.

Lisenssammenlikning

Alle modeller på TTS.ai bruker kommersielt miljøvennlige lisenser med åpen kildekode

Modell Lisens Kommersiell bruk Endring Selvstendig vert Tileigning
Kokoro Apache 2.0 Kreves
Piper MIT Valgfri
VITS MIT Valgfri
MeloTTS MIT Valgfri
Chatterbox MIT Valgfri
Tortoise TTS Apache 2.0 Kreves
StyleTTS 2 MIT Valgfri
OpenVoice MIT Valgfri
Sesame CSM Apache 2.0 Kreves
Orpheus Llama 3.2 "Built with Llama"

Selvvært mot vert API

Kjør modeller selv eller la oss håndtere infrastrukturen

Selvstendig vert på din maskinvare

Hver modell på TTS.ai er tilgjengelig som et prosjekt med åpen kildekode på GitHub eller Hugging Face. Last ned vekter, installer avhengigheter og kjør slutning på dine egne GPU-er. Du har full kontroll over latens, personvern og skalering.

  • Full personvern for data – lyd forlater aldri tjeneren din
  • Ingen kostnad for hver forespørsel etter første oppsett
  • Selvvalgt fininnstilling på dine egne data
  • Krever GPU- maskinvare (NVIDIA anbefales)
  • Du håndterer oppdateringer, skalering og avhengigheter

Bruk TTS.ai verts- API

Få øyeblikkelig tilgang til alle 20+ modeller gjennom ett enkelt REST API. Vi håndterer GPU- levering, modelloppdateringer, køhåndtering og skalering. En API- nøkkel gir deg tilgang til hver modell – trenger ikke håndtere egne innføringer.

  • Det trengs ikke GPU- maskinvare
  • Alle 20+ modeller gjennom ett API
  • Automatisk oppdatering og forbedringer av modeller
  • 99,9 % opp-tid med overflødig infrastruktur
  • Betal bare for det du bruker

Hurtigstart: API eller egenvert

Bruk vår verts-API, eller installer Kokoro lokalt på minutter

Valg 1: TTS.ai Verts-API Lettest
import requests

response = requests.post("https://api.tts.ai/v1/tts", json={
    "text": "Open source TTS with a simple API.",
    "model": "kokoro",
    "voice": "af_heart",
    "format": "wav"
}, headers={"Authorization": "Bearer YOUR_API_KEY"})

with open("output.wav", "wb") as f:
    f.write(response.content)
Valg 2: Selvstendig vert med pip Full kontroll
# Install Kokoro locally
pip install kokoro

# Generate speech on your own GPU
import kokoro

pipeline = kokoro.KPipeline(lang_code="a")
generator = pipeline("Hello from your own server!", voice="af_heart")
for i, (gs, ps, audio) in enumerate(generator):
    kokoro.save(audio, f"output_{i}.wav")

Åpen kildekode, overkommelige priser

Vår verts API gjør åpen kildekode TTS tilgjengelig uten å håndtere GPUer.

Fritt nivå

$0

15 kreditter ved registrering

  • 4 gratis modeller med åpen kildekode
  • Ingen registrering for enkel bruk
  • Tillatt kommersiell bruk

Starter

$9

500.000 tegn per måned

  • Alle 20+ åpen kildekodemodeller
  • Stemmekloning
  • API- tilgang

Pro

$29

2.000.000 tegn/måned

  • Prioritet GPU- behandling
  • Alle premiemodeller
  • Foretaksstøtte
Vis Full prissetting

Ofte stilte spørsmål

Vanlige spørsmål om åpen kildekodetekst til tale

Ja. Hver modell på TTS.ai bruker en ettergivende åpen kildekode- lisens – enten MIT eller Apache 2. 0. Vi ekskluderer spesifikt modeller med restriktive lisenser (som Coquis CPML eller ikke- kommersielle CC- BY-NC). Du kan verifisere hver modells lisens på sitt GitHub- arkiv.

Begge er ettergivende åpen kildekode- lisenser som tillater kommersiell bruk, endring og omfordeling. Apache 2. 0 legger til eksplisitte patentstipendier og krever endringer hvis du endrer koden. MIT er enklere med færre krav. Begge er forretningsvennlige.

Ja. Hver modell kan være selvvertert. Klon modelllageret fra GitHub, installer avhengigheter, last ned modellvekter og unnskyldninger. Vi gir dokumentasjon på hver modells krav til egenvert, som GPU, RAM og Python- versjon.

Kravene varierer etter modell. Piper trenger ikke GPU (kun CPU). Kokoro og MeloTTS trenger 1- 2GB VRAM. De fleste standardmodeller trenger 4GB VRAM. Tortoise og Sesame CSM trenger 8GB. En NVIDIA RTX 3060 (12GB) kan kjøre de fleste modeller komfortabelt.

Ja. Åpen- kildekode- lisenser tillater endring, også finjustering. Modeller som GPT- SoVITS og Bark gir finjusterende skripter. Du kan trene modeller på dine egne stemmedata for å lage selvvalgte stemmer eller forbedre ytelsen for bestemte språk.

Åpen kildekode- modeller (Kokoro, StyleTTS 2, Chatterbox) passer eller overstiger nå kommersielle tjenester som Elleve Labs og Google TTS i kvalitetsreferanser. Den største fordelen med kommersielle tjenester er styrt infrastruktur og støtte, ikke lydkvalitet.

Vi har allerede utelukket dem. XTTS/ XTTS- v2 (Coquis CPML - ikke- kommersiell), F5- TTS (CC- BY-NC - ikke- kommersiell), og Higgs- v2 (Boson License - restriktiv) ble alle fjernet. Hver modell på TTS.ai er kontrollert sikker for kommersiell bruk.

Ja. De fleste modeller tar imot bidrag fra fellesskapet via GitHub. Du kan sende inn feilrapporter, taleopptak for nye språk, kodeforbedringer og dokumentasjon. Se etter i hver modells GitHub- arkiv etter retningslinjer og aktive spørsmål.

Last modeller på bestilling og last opp når du ikke er i bruk for å dele GPU- minne. Vår GPU- tjener kjører 20+ modeller på 4x Tesla P40 (96GB total VRAM) ved hjelp av dynamisk belastning. En enkelt 24GB GPU kan tjene 3-5 modeller samtidig.

Mange modeller har offisielle Docker- bilder eller Docker- filer. For å kjøre flere modeller kan du lage et selvvalgt Docker- oppsett med NVIDIA Container Toolkit for tilgang til GPU. Vår API- tjenerarkitektur kan fungere som en referanseimplementering.

De fleste modeller krever Python 3.10-3.12. Coqui TTS (VITS) trenger spesifikt Python 3.11. Vi anbefaler Python 3.12 for de fleste modeller. Sjekk hver modells krav. txt for nøyaktig versjonskompatibilitet.

Ja. MIT og Apache 2. 0 lisenser tillater uttrykkelig kommersiell bruk. Du kan bygge SaaS- produkter, mobilapper, spill og tjenester som bruker disse modellene uten lisensgebyrer, royalties eller krav til tildeling (selv om tildeling er verdsatt).
5.0/5 (1)

Hva kan vi forbedre? din tilbakemelding hjelper oss med å løse problemer.

Prøv TTS i dag med åpen kildekode

20+ åpen kildekode- modeller, alle kommersielt lisensierte. Bruk vårt API eller egenvert – valget er ditt.