Entreprise

Nuage privé

Votre propre infrastructure de voix AI dédiée. Isolation complète des données, tous les modèles open-source, pas de frais par caractère. Déployez sur votre cloud ou le nôtre.

Commencer Docs de l'API

Pourquoi le Cloud Privé?

Isolation complète des données

Vos données texte, audio et vocale ne touchent jamais l'infrastructure partagée. Aucune donnée ne quitte votre réseau. Idéal pour les soins de santé, juridiques, financiers, et le gouvernement utilisent des cas où la résidence de données compte.

Ressources GPU dédiées

Pas de files d'attente partagées, pas de voisins bruyants. Vos serveurs GPU sont réservés exclusivement à vos charges de travail. Latence prévisible et débit pour les applications vocales de production.

Pas de frais par personne

Générer un langage illimité, cloner des voix illimitées, transcrire un son illimité. Vous payez pour l'infrastructure, pas l'utilisation.

Ce qui est inclus

Texte au discours

  • Tous les modèles TTS 20+ open-source
  • Kokoro, Chatterbox, CosyVoice 2, Bark, Orphée, et plus
  • Streaming et génération de lots
  • 100 voix pré-construites dans plus de 30 langues

Clonage de la voix

  • 9 modèles de clonage (Chatterbox, GPT-SoVITS, OpenVoice, etc.)
  • Clone de 5 secondes audio de référence
  • Clones vocaux illimités
  • Intégration vocale stockée uniquement sur vos serveurs

Discours au texte

  • Plus rapide Whisper (4x vitesse), SenseVoice
  • 99 langues avec horodatage et détection des haut-parleurs
  • Heures de transcription illimitées
  • transcription en streaming en temps réel

Traitement audio

  • Amélioration audio (élimination du bruit, clarté)
  • Séparation vocale et fractionnement de la tige (Demucs)
  • Suppression de l'écho et de la réverbération
  • Conversion de format, traduction de la parole

Architecture de déploiement

{{ g.i18n.pc_arch_diagram|default:"Your Application
    |
    v
[Private API Server] ---- REST API (OpenAI-compatible)
    |
    v
[GPU Inference Workers] -- NVIDIA A100/H100/L40S
    |-- TTS Models (Kokoro, Chatterbox, Bark, etc.)
    |-- Voice Cloning (GPT-SoVITS, OpenVoice, etc.)
    |-- STT (Faster Whisper, SenseVoice)
    |-- Audio Processing (Demucs, Enhancement)
    |
[Your Cloud / On-Premises]
    AWS | GCP | Azure | OCI | Bare Metal" }}
  • Même API REST que api.tts.ai
  • Paramètres compatibles avec OpenAI
  • Les SDK Python et JavaScript ne fonctionnent pas
  • Répartition dynamique du GPU entre les modèles
  • Système de file d'attente prioritaire pour un débit optimal
  • Modèles préchargés en VRAM pour une inférence instantanée

Construit pour

Soins de santé

Interfaces vocales orientées vers le patient, dictée médicale, documentation clinique. Conservez l'ISP dans votre infrastructure conforme.

Services financiers

Banques vocales, transcription d'appels de conformité, service à la clientèle automatisé. Résidence de données dans votre région choisie.

Gouvernement

Services publics accessibles, communications citoyennes multilingues, traitement de documents classifiés sur des réseaux équipés d'un système aérien.

Centres de contact

Systèmes de RVI à volume élevé, aide en temps réel, transcription d'appels et analyse. Coût prévisible à n'importe quelle échelle.

Cloud partagé vs Cloud privé

Nuage partagé Nuage privé
Isolation des données Infrastructure partagée, effacée automatiquement en 24h Isolation complète, vos serveurs seulement
Modèle de tarification Par caractère Flat mensuel, utilisation illimitée
Modèles d'IA Tous les modèles Tous les modèles + personnalisés
Latence file d'attente partagée Dédié, prévisible
Résidence des données Notre centre de données Votre choix de région
SLA Meilleur effort SLA personnalisé disponible
Appui Courriel Gestionnaire de compte spécialisé

Modèles open-source, pas de verrouillage du fournisseur

Chaque modèle de TTS.ai Private Cloud est open-source (MIT ou Apache 2.0). Si jamais vous arrêtez d'utiliser notre service, vous gardez un accès complet aux modèles sous-jacents. Pas de dépendances propriétaires, pas de pièges de licence.

Kokoro
Chatterbox
CosyVoice 2
Bark
Orpheus
GPT-SoVITS
StyleTTS2
Tortoise
OpenVoice
Piper
VITS
MeloTTS
Faster Whisper
Demucs

Plans de cloud privés

De l'auto-accueil à la gestion complète. Tous les plans incluent chaque modèle open-source.

Auto-hospitalière

Exécutez sur votre propre matériel GPU. Nous fournissons l'image et la licence Docker.

$99 /mois
  • Image Docker avec tous les modèles
  • Votre GPU, vos serveurs
  • Validation de la clé de licence
  • Assistance par courriel
  • Utilisation illimitée
Commencer

Démarreur

instance dédiée à un seul GPU gérée par TTS.ai.

$499 /mois
  • 1x A100 GPU
  • 5 générations simultanées
  • Tous les modèles inclus
  • Échelle automatique
  • Assistance par courriel
Commencer
Populaire

Pour

Instance à haut débit avec file d'attente prioritaire et 20 fentes simultanées.

$999 /mois
  • 1x A100 GPU
  • 20 générations simultanées
  • file d'attente prioritaire
  • Échelle automatique
  • Appui prioritaire
Commencer

Entreprise

Cluster multi-GPU avec SLA, concurrent illimité et gestionnaire de compte dédié.

$2,499 /mois
  • Multi-GPU (H100)
  • Illimitée concurrente
  • 99,9% ALS
  • Gestionnaire de compte spécialisé
  • Région de déploiement personnalisé
Commencer

FAQ sur le cloud privé

TTS.ai Private Cloud est un déploiement dédié à l'infrastructure vocale de l'IA. Vous obtenez vos propres serveurs GPU fonctionnant à la pile complète de TTS.ai (text-to-speech, clonage vocal, parole-to-text et traitement audio) complètement isolé de notre plateforme partagée. Aucune donnée ne quitte votre infrastructure.

Tous les modèles open-source disponibles sur TTS.ai sont inclus: Kokoro, Chatterbox, CosyVoice 2, Bark, Orpheus, Dia, GLM-TTS, Spark, GPT-SoVITS, StyleTTS2, Tortoise, OpenVoice, Piper, VITS, MeloTTS, etc. Les modèles de clonage vocal sont également inclus. Tous les modèles sont sous licence MIT ou Apache 2.0.

Nous déployons sur les serveurs GPU NVIDIA – typiquement A100, H100 ou L40S en fonction de vos besoins de débit. Une configuration minimale pour les petites équipes est 1x A100 (80GB) prenant en charge 5-10 demandes simultanées.

Nous soutenons le déploiement sur les principaux fournisseurs de cloud (AWS, GCP, Azure, OCI) dans n'importe quelle région, ou sur votre propre matériel sur site. Vous choisissez l'emplacement d'hébergement en fonction de vos exigences de conformité et de latence.

Oui. Le déploiement de cloud privé expose la même API REST que api.tts.ai, y compris le paramètre compatible OpenAI. Vos codes, SDKs et intégrations existants fonctionnent sans changement – pointez simplement sur votre URL d'API privée.

Nous fournissons régulièrement des mises à jour incluant de nouveaux modèles, des correctifs de sécurité et des améliorations de performance. Les mises à jour sont testées sur notre plateforme partagée d'abord, puis emballées pour le déploiement de cloud privé.

L'auto-hébergement de modèles individuels nécessite une importante ingénierie ML : gestion de l'allocation VRAM, construction de pipelines de déduction, manipulation des files d'attente, post-traitement audio, et maintien de plusieurs environnements de modèles. TTS.ai Private Cloud fournit une pile prête à la production avec tout cela intégré, ainsi qu'un support et des mises à jour continus.

Le prix dépend de la configuration du GPU, du nombre de modèles déployés et du niveau de support. Contactez-nous pour un devis. Il n'y a pas de frais par caractère ou par demande — vous ne payez que pour l'infrastructure et le support.

Prêt à déployer?

Choisissez un plan ci-dessus ou contactez-nous pour les besoins personnalisés de l'entreprise.

Commencer Contacter les ventes