Unternehmen

Private Cloud

Ihre eigene KI-Sprachinfrastruktur. Volle Datenisolierung, alle Open-Source-Modelle, keine Gebühren pro Zeichen. Bereitstellung in Ihrer Cloud oder in unserer.

Erste Schritte API Docs

Warum Private Cloud?

Vollständige Datenisolierung

Ihre Text-, Audio- und Sprachdaten berühren niemals die gemeinsame Infrastruktur. Keine Daten verlassen Ihr Netzwerk. Ideal für den Einsatz in Gesundheits-, Rechts-, Finanz- und staatlichen Fällen, in denen Datenresidenz zählt.

Dedizierte GPU-Ressourcen

Keine gemeinsamen Warteschlangen, keine lauten Nachbarn. Ihre GPU-Server sind ausschließlich für Ihre Workloads reserviert. Vorhersehbare Latenz und Durchsatz für Produktion Sprachanwendungen.

Keine Gebühren pro Zeichen

Erzeugen Sie unbegrenzte Sprache, Klon unbegrenzte Stimmen, Transkription unbegrenzte Audio. Sie zahlen für Infrastruktur, nicht Nutzung. Dramatisch niedrigere Kosten auf Skala versus pro-Charakter-Preise.

Was ist enthalten

Text in die Rede

  • Alle 20+ Open-Source-TTS-Modelle
  • Kokoro, Chatterbox, CosyVoice 2, Bark, Orpheus und mehr
  • Streaming und Chargengenerierung
  • 100+ vorgefertigte Stimmen in 30+ Sprachen

Stimme Klonen

  • 9 Klonmodelle (Chatterbox, GPT-SoVITS, OpenVoice usw.)
  • Klonen aus 5-Sekunden Referenz-Audio
  • Unbegrenzte Sprachklone
  • Nur auf Ihren Servern gespeicherte Spracheinbettungen

Rede zum Text

  • Schnellerer Whisper (4x Geschwindigkeit), SenseVoice
  • 99 Sprachen mit Zeitstempeln und Lautsprechererkennung
  • Unbegrenzte Transkriptionszeiten
  • Echtzeit-Streaming-Transkription

Audioverarbeitung

  • Audio-Verbesserung (Lärmentfernung, Klarheit)
  • Stimmtrennung und Stängelspaltung (Demucs)
  • Echo- und Reverb-Entfernung
  • Formatkonvertierung, Sprachübersetzung

Architektur des Einsatzes

{{ g.i18n.pc_arch_diagram|default:"Your Application
    |
    v
[Private API Server] ---- REST API (OpenAI-compatible)
    |
    v
[GPU Inference Workers] -- NVIDIA A100/H100/L40S
    |-- TTS Models (Kokoro, Chatterbox, Bark, etc.)
    |-- Voice Cloning (GPT-SoVITS, OpenVoice, etc.)
    |-- STT (Faster Whisper, SenseVoice)
    |-- Audio Processing (Demucs, Enhancement)
    |
[Your Cloud / On-Premises]
    AWS | GCP | Azure | OCI | Bare Metal" }}
  • Dieselbe REST API wie api.tts.ai
  • OpenAI-kompatible Endpunkte
  • Python und JavaScript SDK funktionieren unverändert
  • Dynamische GPU-Allokation über Modelle hinweg
  • Vorrangiges Warteschlangesystem für optimalen Durchsatz
  • Vorgeladene Modelle in VRAM zur sofortigen Schlussfolgerung

gebaut für

Gesundheitswesen

Patientenbezogene Sprachschnittstellen, medizinisches Diktat, klinische Dokumentation. Halten Sie PHI innerhalb Ihrer konformen Infrastruktur.

Finanzdienstleistungen

Sprachfähiges Banking, Compliance Call Transkription, automatisierter Kundenservice. Datenresidenz in Ihrer gewählten Region.

Regierung

Zugängliche öffentliche Dienste, mehrsprachige Bürgerkommunikation, geheime Dokumentenverarbeitung in luftgestützten Netzen.

Kontaktzentren

Hochvolumige IVR-Systeme, Echtzeit-Agent-Assistent, Anruf-Transkription und Analytik. Vorhersehbare Kosten in jeder Größenordnung.

Shared Cloud vs Private Cloud

Shared Cloud Private Cloud
Datenisolierung Gemeinsame Infrastruktur, automatisch in 24h gelöscht Volle Isolation, nur Ihre Server
Preismodell Pro-Zeichen Flache monatliche, unbegrenzte Nutzung
KI-Modelle Alle Modelle Alle Modelle + benutzerdefinierte
Latenz Gemeinsame Warteschlange Dediziert, vorhersehbar
Datenresidenz Unser Rechenzentrum Ihre Wahl der Region
SLA Beste Anstrengung Benutzerdefinierte SLA verfügbar
Unterstützung E-Mail-Adresse Dedizierter Kontomanager

Open-Source-Modelle, kein Anbieter Lock-In

Jedes Modell in TTS.ai Private Cloud ist Open Source (MIT oder Apache 2.0). Wenn Sie jemals aufhören, unseren Service zu nutzen, behalten Sie vollen Zugriff auf die zugrunde liegenden Modelle. Keine proprietären Abhängigkeiten, keine Lizenzfallen.

Kokoro
Chatterbox
CosyVoice 2
Bark
Orpheus
GPT-SoVITS
StyleTTS2
Tortoise
OpenVoice
Piper
VITS
MeloTTS
Faster Whisper
Demucs

Private Cloud-Pläne

Von selbst gehostet bis vollständig verwaltet. Alle Pläne beinhalten jedes Open-Source-Modell.

Selbstgehostet

Führen Sie auf Ihrer eigenen GPU-Hardware. Wir stellen die Docker Bild und Lizenz.

$99 /Monat
  • Docker Bild mit allen Modellen
  • Ihre GPU, Ihre Server
  • Validierung des Lizenzschlüssels
  • E-Mail-Unterstützung
  • Unbegrenzte Nutzung
Erste Schritte

Starter

Dedizierte Einzel-GPU-Instanz verwaltet von TTS.ai.

$499 /Monat
  • 1x A100 GPU
  • 5 gleichzeitige Generationen
  • Alle Modelle enthalten
  • Automatische Skalierung
  • E-Mail-Unterstützung
Erste Schritte
Beliebt

Pro

High-Throughput-Instanz mit Prioritätswarteschlange und 20 parallelen Slots.

$999 /Monat
  • 1x A100 GPU
  • 20 gleichzeitige Generationen
  • Prioritätswarteschlange
  • Automatische Skalierung
  • Vorrangige Unterstützung
Erste Schritte

Unternehmen

Multi-GPU-Cluster mit SLA, unbegrenzte gleichzeitige und dedizierte Kontomanager.

$2,499 /Monat
  • Multi-GPU (H100)
  • Unbegrenzt gleichzeitig
  • 99,9% SLA
  • Dedizierter Kontomanager
  • Benutzerdefinierte Bereitstellungsregion
Erste Schritte

Private Cloud FAQ

TTS.ai Private Cloud ist eine dedizierte KI-Sprachinfrastruktur-Bereitstellung. Sie erhalten Ihre eigenen GPU-Server mit dem vollen TTS.ai Stack – Text-zu-Sprach, Sprach-Klonen, Sprach-zu-Text und Audioverarbeitung – vollständig isoliert von unserer gemeinsamen Plattform. Keine Daten verlassen Ihre Infrastruktur.

Alle auf TTS.ai verfügbaren Open-Source-Modelle sind enthalten: Kokoro, Chatterbox, CosyVoice 2, Bark, Orpheus, Dia, GLM-TTS, Spark, GPT-SoVITS, StyleTTS2, Tortoise, OpenVoice, Piper, VITS, MeloTTS und vieles mehr.

Wir stellen auf NVIDIA GPU Servern zur Verfügung – typischerweise A100, H100 oder L40S, abhängig von Ihren Durchsatzanforderungen. Eine minimale Konfiguration für kleine Teams ist 1x A100 (80GB) für 5-10 gleichzeitige Anfragen. Für die Produktion mit hohem Volumen konfigurieren wir Multi-GPU Cluster mit Lastausgleich.

Wir unterstützen die Bereitstellung auf großen Cloud-Anbietern (AWS, GCP, Azure, OCI) in jeder Region oder auf Ihrer eigenen On-Premises-Hardware. Sie wählen den Hosting-Standort aufgrund Ihrer Compliance- und Latenzanforderungen.

Ja. Die private Cloud-Deployment stellt die gleiche REST-API wie api.tts.ai frei, einschließlich des OpenAI-kompatiblen Endpunkts. Ihr vorhandener Code, SDKs und Integrationen funktionieren ohne Änderungen – zeigen Sie einfach auf Ihre private API-URL.

Wir bieten regelmäßige Updates einschließlich neuer Modelle, Sicherheitspatches und Leistungsverbesserungen. Updates werden zuerst auf unserer gemeinsamen Plattform getestet, dann für die private Cloud-Bereitstellung verpackt. Sie steuern, wenn Updates angewendet werden.

Das Selbst-Hosting einzelner Modelle erfordert ein bedeutendes ML-Engineering: Verwaltung von VRAM-Zuweisungen, Aufbau von Inferenz-Pipelines, Handhabung von Warteschlangen, Audio-Post-Processing und Wartung mehrerer Modellumgebungen. TTS.ai Private Cloud bietet einen produktionsfähigen Stack mit all dem eingebauten, sowie laufendem Support und Updates.

Die Preise hängen von der GPU-Konfiguration, der Anzahl der eingesetzten Modelle und der Support-Ebene ab. Kontaktieren Sie uns für ein Angebot. Es gibt keine Pro-Character- oder Pro-Request-Gebühren – Sie zahlen nur für Infrastruktur und Support.

Bereit zum Einsatz?

Wählen Sie einen Plan oben oder kontaktieren Sie uns für kundenspezifische Unternehmensanforderungen.

Erste Schritte Vertrieb kontaktieren