Open Source Texte vers les modèles de discours

Chaque modèle TTS sur notre plateforme est open source avec des licences commerciales. MIT, Apache 2.0 — pas de verrouillage propriétaire, pas de restrictions d'utilisation, pas de frais de licence surprise. Utilisez-les via notre API hébergée, ou auto-hébergez-les sur votre propre infrastructure avec plein contrôle.

Source ouverte Licence MIT Apache 2.0 Self-Hostable GitHub

Essayez-le maintenant.

Gratuit avec Kokoro, Piper, VITS, MeloTTS
Votre audio généré apparaîtra ici
Générés
Télécharger
Vous aimez TTS.ai ? Parlez-en à vos amis !

Avantages pour les TTS à source ouverte

Pourquoi les modèles open-source comptent pour vos projets

Toutes les licences Open-Source

Chaque modèle sur TTS.ai utilise une licence open-source permissive. Pas de boîtes noires propriétaires, pas de verrouillage de fournisseur, pas de frais de licence inattendus.

MIT / Apache 2.0

Les modèles sont sous licence MIT ou Apache 2.0, les licences open-source les plus permissives. Utilisez commercialement, modifiez, redistribuez — aucune restriction.

Self-Hostable

Téléchargez n'importe quel modèle et exécutez-le sur votre propre matériel. Contrôle total de vos données, latences et infrastructure. Pas de dépendance cloud requise.

GPU optimisé

Les modèles sont optimisés pour les GPU NVIDIA avec le support CUDA. Piper fonctionne sur CPU seulement. La plupart des modèles ont besoin de 2-8 Go VRAM pour une inférence efficace.

Maintien de la communauté

Les communautés actives open-source maintiennent et améliorent ces modèles. Les contributions sont les bienvenues — soumettre des bogues, des améliorations et de nouvelles voix sur GitHub.

Utilisation commerciale OK

Tous les modèles permettent une utilisation commerciale en vertu de leurs licences.Construisez des produits, vendez des services et créez du contenu commercial sans redevances ni frais d'utilisation.

Notre catalogue de modèles Open Source

Chaque modèle, sa licence et ce qu'il fait le mieux

KokoroKokoro

Free

Lightweight 82M parameter model delivering studio-quality speech with blazing-fast inference.

Fast 5/5

Meilleur pour: Apache 2.0 — meilleur modèle gratuit de qualité, params 82M, facile à accueillir

Essaie. Kokoro

PiperPiper

Free

A fast, local neural text to speech system optimized for Raspberry Pi and embedded devices.

Fast 3/5

Meilleur pour: MIT — CPU-seulement, parfait pour les périphériques de bord et l'auto-hébergement intégré

Essaie. Piper

VITSVITS

Free

Conditional variational autoencoder with adversarial learning for end-to-end text-to-speech.

Fast 3/5

Meilleur pour: MIT — architecture fondamentale utilisée par de nombreux modèles en aval

Essaie. VITS

BarkBark

Standard

Transformer-based text-to-audio model that generates realistic speech, music, and sound effects.

Slow 4/5

Meilleur pour: MIT — capacités de génération audio uniques au-delà de la norme TTS

Essaie. Bark

Tortoise TTSTortoise TTS

Premium

Multi-voice text-to-speech focused on quality with autoregressive architecture.

Slow 5/5 Clonage de la voix

Meilleur pour: Apache 2.0 — qualité maximale, mise en œuvre de référence largement étudiée

Essaie. Tortoise TTS

OpenVoiceOpenVoice

Premium

Instant voice cloning with granular control over style, emotion, and accent.

Medium 4/5 Clonage de la voix

Meilleur pour: MIT — clonage vocal à source ouverte avec contrôle de style granulaire

Essaie. OpenVoice

Comment utiliser Open Source TTS

Utilisez notre API hébergée ou exécutez des modèles vous-même

1

Explorer les modèles Open-Source

Parcourez notre catalogue de 20 modèles TTS open-source. Chaque page de modèle montre les exigences de licence, d'architecture, de capacités et d'auto-hébergement.

2

Essayez dans votre navigateur

Testez n'importe quel modèle directement sur TTS.ai sans rien installer. Nos serveurs GPU gèrent le traitement afin que vous puissiez évaluer la qualité avant de vous engager à l'auto-hébergement.

3

Autochtone ou utilisez notre API

Le modèle Clone repos de GitHub et fonctionne localement, ou utilise notre API hébergée pour la production. L'auto-hébergement donne un contrôle complet; notre API fournit une infrastructure gérée.

4

Construisez votre application

Intégrez TTS dans votre produit à l'aide de modèles auto-organisés ou de notre API REST. Tous les modèles sont utilisables commercialement sans frais de licence ni redevances.

Comparaison des licences

Tous les modèles sur TTS.ai utilisent des licences open-source compatibles avec le commerce

Modèle Licence Utilisation commerciale Modification Autochtone Attribution
Kokoro Apache 2.0 Requis
Piper MIT Facultatif
VITS MIT Facultatif
MeloTTS MIT Facultatif
Chatterbox MIT Facultatif
Tortoise TTS Apache 2.0 Requis
StyleTTS 2 MIT Facultatif
OpenVoice MIT Facultatif
Sesame CSM Apache 2.0 Requis
Orpheus Llama 3.2 "Built with Llama"

Auto-hébergement par rapport à l'API hébergée

Exécutez vous-même les modèles ou laissez-nous gérer l'infrastructure

Self-Host sur votre matériel

Chaque modèle sur TTS.ai est disponible en tant que projet open-source sur GitHub ou Hugging Face. Téléchargez les poids, installez les dépendances et lancez une inférence sur vos propres GPU. Vous avez un contrôle total sur la latence, la confidentialité et l'échelle.

  • Confidentialité complète des données — l'audio ne quitte jamais votre serveur
  • Aucun coût par demande après l'installation initiale
  • Perfectionnement personnalisé sur vos propres données
  • Nécessite du matériel GPU (NVIDIA recommandé)
  • Vous gérez les mises à jour, l'échelle et les dépendances

Utiliser l'API hébergée TTS.ai

Obtenez un accès instantané à tous les modèles 20+ grâce à une seule API REST. Nous gérons la fourniture GPU, les mises à jour de modèles, la gestion de la file d'attente et la mise à l'échelle. Une clé API vous donne accès à chaque modèle — pas besoin de gérer des déploiements séparés.

  • Pas besoin de matériel GPU
  • Tous les modèles 20+ à travers une API
  • Mises à jour et améliorations automatiques du modèle
  • 99,9 % temps d'arrêt avec infrastructures redondantes
  • Ne payez que pour ce que vous utilisez

Démarrage rapide : API ou auto-host

Utilisez notre API hébergée, ou installez Kokoro localement en quelques minutes

Option 1: API hébergée par TTS.ai Plus facile
import requests

response = requests.post("https://api.tts.ai/v1/tts", json={
    "text": "Open source TTS with a simple API.",
    "model": "kokoro",
    "voice": "af_heart",
    "format": "wav"
}, headers={"Authorization": "Bearer YOUR_API_KEY"})

with open("output.wav", "wb") as f:
    f.write(response.content)
Option 2 : Self-Host avec pip Contrôle total
# Install Kokoro locally
pip install kokoro

# Generate speech on your own GPU
import kokoro

pipeline = kokoro.KPipeline(lang_code="a")
generator = pipeline("Hello from your own server!", voice="af_heart")
for i, (gs, ps, audio) in enumerate(generator):
    kokoro.save(audio, f"output_{i}.wav")

Open Source, prix abordable

Notre API hébergée rend le TTS open-source accessible sans gérer les GPU.

Niveau libre

$0

50 crédits au moment de l'inscription

  • 4 modèles open-source gratuits
  • Pas d'inscription pour une utilisation de base
  • Usage commercial autorisé

Démarreur

$9

500 000 caractères/mois

  • Tous les modèles 20+ open-source
  • Closonnage de la voix
  • Accès à l'API

Pour

$29

2 000 000 caractères/mois

  • Traitement GPU prioritaire
  • Tous les modèles premium
  • Appui aux entreprises
Voir le prix complet

Foire aux questions

Questions courantes sur le texte open source à la parole

Oui. Chaque modèle sur TTS.ai utilise une licence open-source permissive — soit MIT ou Apache 2.0. Nous excluons spécifiquement les modèles avec des licences restrictives (comme le CPML de Coqui ou CC-BY-NC non commercial). Vous pouvez vérifier la licence de chaque modèle sur son dépôt GitHub.

Les deux sont des licences libres permissives permettant l'utilisation commerciale, la modification et la redistribution. Apache 2.0 ajoute des subventions de brevet explicites et exige d'indiquer des modifications si vous modifiez le code. MIT est plus simple avec moins d'exigences.

Oui. Chaque modèle peut être auto-hébergé. Cloner le dépôt modèle de GitHub, installer les dépendances, télécharger les poids du modèle, et exécuter l'inférence. Nous fournissons la documentation pour les exigences d'auto-hébergement de chaque modèle, y compris GPU, RAM, et Python version.

Les exigences varient selon le modèle. Piper n'a pas besoin de GPU (CPU seulement). Kokoro et MeloTTS ont besoin de VRAM 1-2 Go. La plupart des modèles standard ont besoin de VRAM 4 Go. Tortoise et Sésame CSM ont besoin de 8 Go. Un NVIDIA RTX 3060 (12 Go) peut exécuter la plupart des modèles confortablement.

Oui. Les licences open-source permettent de modifier, y compris le réglage fin. Les modèles comme GPT-SoVITS et Bark fournissent des scripts de réglage fin. Vous pouvez former des modèles sur vos propres données vocales pour créer des voix personnalisées ou améliorer les performances pour des langues spécifiques.

Les meilleurs modèles open-source (Kokoro, StyleTTS 2, Chatterbox) correspondent ou dépassent désormais les services commerciaux comme OnzeLabs et Google TTS dans les critères de qualité. Le principal avantage des services commerciaux est l'infrastructure et le support gérés, et non la qualité audio.

We have already excluded them. XTTS/XTTS-v2 (Coqui's CPML — non-commercial), F5-TTS (CC-BY-NC — non-commercial), and Higgs-v2 (Boson License — restrictive) were all removed. Every model on TTS.ai is verified commercial-use safe.

Oui. La plupart des modèles acceptent les contributions communautaires via GitHub. Vous pouvez soumettre des rapports de bogues, des enregistrements vocaux pour de nouvelles langues, des améliorations de code et de la documentation.

Chargez les modèles à la demande et déchargez-les en cas de panne pour partager la mémoire GPU. Notre serveur GPU exécute 20 modèles+ sur 4x Tesla P40 (96 Go de VRAM total) en utilisant une charge dynamique. Pour l'auto-hébergement, un seul GPU de 24 Go peut servir simultanément 3-5 modèles.

De nombreux modèles fournissent des images officielles Docker ou Dockerfiles. Pour exécuter plusieurs modèles, vous pouvez construire une configuration Docker personnalisée avec NVIDIA Container Toolkit pour l'accès GPU. Notre architecture de serveur API peut servir de référence.

La plupart des modèles nécessitent Python 3.10-3.12. Coqui TTS (VITS) nécessite spécifiquement Python 3.11. Nous recommandons Python 3.12 pour la plupart des modèles. Vérifiez les exigences.txt de chaque modèle pour obtenir une compatibilité de version exacte.

Oui. Les licences MIT et Apache 2.0 permettent explicitement une utilisation commerciale. Vous pouvez construire des produits SaaS, des applications mobiles, des jeux et des services en utilisant ces modèles sans frais de licence, redevances ou exigences d'attribution (bien que l'attribution soit appréciée).
5.0/5 (1)

Que pourrions-nous améliorer? Vos commentaires nous aident à résoudre les problèmes.

Essayez Open Source TTS aujourd'hui

20+ modèles open-source, tous sous licence commerciale. Utilisez notre API ou auto-hôte — le choix est le vôtre.