Nuage privé
Votre propre infrastructure de voix AI dédiée. Isolation complète des données, tous les modèles open-source, pas de frais par caractère. Déployez sur votre cloud ou le nôtre.
Commencer Docs de l'APIPourquoi le Cloud Privé?
Isolation complète des données
Vos données texte, audio et vocale ne touchent jamais l'infrastructure partagée. Aucune donnée ne quitte votre réseau. Idéal pour les soins de santé, juridiques, financiers, et le gouvernement utilisent des cas où la résidence de données compte.
Ressources GPU dédiées
Pas de files d'attente partagées, pas de voisins bruyants. Vos serveurs GPU sont réservés exclusivement à vos charges de travail. Latence prévisible et débit pour les applications vocales de production.
Pas de frais par personne
Générer un langage illimité, cloner des voix illimitées, transcrire un son illimité. Vous payez pour l'infrastructure, pas l'utilisation.
Ce qui est inclus
Texte au discours
- Tous les modèles TTS 20+ open-source
- Kokoro, Chatterbox, CosyVoice 2, Bark, Orphée, et plus
- Streaming et génération de lots
- 100 voix pré-construites dans plus de 30 langues
Clonage de la voix
- 9 modèles de clonage (Chatterbox, GPT-SoVITS, OpenVoice, etc.)
- Clone de 5 secondes audio de référence
- Clones vocaux illimités
- Intégration vocale stockée uniquement sur vos serveurs
Discours au texte
- Plus rapide Whisper (4x vitesse), SenseVoice
- 99 langues avec horodatage et détection des haut-parleurs
- Heures de transcription illimitées
- transcription en streaming en temps réel
Traitement audio
- Amélioration audio (élimination du bruit, clarté)
- Séparation vocale et fractionnement de la tige (Demucs)
- Suppression de l'écho et de la réverbération
- Conversion de format, traduction de la parole
Architecture de déploiement
{{ g.i18n.pc_arch_diagram|default:"Your Application
|
v
[Private API Server] ---- REST API (OpenAI-compatible)
|
v
[GPU Inference Workers] -- NVIDIA A100/H100/L40S
|-- TTS Models (Kokoro, Chatterbox, Bark, etc.)
|-- Voice Cloning (GPT-SoVITS, OpenVoice, etc.)
|-- STT (Faster Whisper, SenseVoice)
|-- Audio Processing (Demucs, Enhancement)
|
[Your Cloud / On-Premises]
AWS | GCP | Azure | OCI | Bare Metal" }}
- Même API REST que api.tts.ai
- Paramètres compatibles avec OpenAI
- Les SDK Python et JavaScript ne fonctionnent pas
- Répartition dynamique du GPU entre les modèles
- Système de file d'attente prioritaire pour un débit optimal
- Modèles préchargés en VRAM pour une inférence instantanée
Construit pour
Soins de santé
Interfaces vocales orientées vers le patient, dictée médicale, documentation clinique. Conservez l'ISP dans votre infrastructure conforme.
Services financiers
Banques vocales, transcription d'appels de conformité, service à la clientèle automatisé. Résidence de données dans votre région choisie.
Gouvernement
Services publics accessibles, communications citoyennes multilingues, traitement de documents classifiés sur des réseaux équipés d'un système aérien.
Centres de contact
Systèmes de RVI à volume élevé, aide en temps réel, transcription d'appels et analyse. Coût prévisible à n'importe quelle échelle.
Cloud partagé vs Cloud privé
| Nuage partagé | Nuage privé | |
|---|---|---|
| Isolation des données | Infrastructure partagée, effacée automatiquement en 24h | Isolation complète, vos serveurs seulement |
| Modèle de tarification | Par caractère | Flat mensuel, utilisation illimitée |
| Modèles d'IA | Tous les modèles | Tous les modèles + personnalisés |
| Latence | file d'attente partagée | Dédié, prévisible |
| Résidence des données | Notre centre de données | Votre choix de région |
| SLA | Meilleur effort | SLA personnalisé disponible |
| Appui | Courriel | Gestionnaire de compte spécialisé |
Modèles open-source, pas de verrouillage du fournisseur
Chaque modèle de TTS.ai Private Cloud est open-source (MIT ou Apache 2.0). Si jamais vous arrêtez d'utiliser notre service, vous gardez un accès complet aux modèles sous-jacents. Pas de dépendances propriétaires, pas de pièges de licence.
Plans de cloud privés
De l'auto-accueil à la gestion complète. Tous les plans incluent chaque modèle open-source.
Auto-hospitalière
Exécutez sur votre propre matériel GPU. Nous fournissons l'image et la licence Docker.
- Image Docker avec tous les modèles
- Votre GPU, vos serveurs
- Validation de la clé de licence
- Assistance par courriel
- Utilisation illimitée
Démarreur
instance dédiée à un seul GPU gérée par TTS.ai.
- 1x A100 GPU
- 5 générations simultanées
- Tous les modèles inclus
- Échelle automatique
- Assistance par courriel
Pour
Instance à haut débit avec file d'attente prioritaire et 20 fentes simultanées.
- 1x A100 GPU
- 20 générations simultanées
- file d'attente prioritaire
- Échelle automatique
- Appui prioritaire
Entreprise
Cluster multi-GPU avec SLA, concurrent illimité et gestionnaire de compte dédié.
- Multi-GPU (H100)
- Illimitée concurrente
- 99,9% ALS
- Gestionnaire de compte spécialisé
- Région de déploiement personnalisé
FAQ sur le cloud privé
Prêt à déployer?
Choisissez un plan ci-dessus ou contactez-nous pour les besoins personnalisés de l'entreprise.
Commencer Contacter les ventes