Empresa

Nube privada

Su propia infraestructura de voz de IA dedicada. Aislamiento completo de datos, todos los modelos de código abierto, sin honorarios por carácter.

Empezar API Docs

¿Por qué Nube Privada?

Aislamiento de datos completos

Sus datos de texto, audio y voz nunca tocan la infraestructura compartida. Ningún dato sale de su red. Ideal para casos de salud, legales, financieros y gubernamentales en los que la residencia de datos importa.

Recursos específicos de la GPU

No hay colas compartidas, no hay vecinos ruidosos. Sus servidores GPU están reservados exclusivamente para sus cargas de trabajo. Latencia predecible y rendimiento para aplicaciones de voz de producción.

No hay tasas por persona

Generar habla ilimitada, clonar voces ilimitadas, transcribir audio ilimitado. Pagas por infraestructura, no por uso. Los costos dramáticamente más bajos a escala versus precios por carácter.

Lo que está incluido

Texto a hablar

  • Todos los 20+ modelos TTS de código abierto
  • Kokoro, Chatterbox, CosyVoice 2, Bark, Orpheus, y más
  • Streaming y generación de lotes
  • Más de 100 voces preconstruidas en más de 30 idiomas

Clonación de voz

  • 9 modelos de clonación (Chatterbox, GPT-SoVITS, OpenVoice, etc.)
  • Clon a partir de audio de referencia de 5 segundos
  • Clones de voz ilimitados
  • Incrustaciones de voz almacenadas en sus servidores solamente

Discurso al texto

  • Susurro más rápido (4x de velocidad), SenseVoice
  • 99 idiomas con marcas de tiempo y detección de altavoces
  • Horas ilimitadas de transcripción
  • Transcripción en streaming en tiempo real

Procesamiento de audio

  • Mejora de audio (eliminación de ruido, claridad)
  • Separación vocal y división del tallo (Demucs)
  • Eliminación de eco y reverberación
  • Conversión de formato, traducción de voz

Arquitectura de despliegue

{{ g.i18n.pc_arch_diagram|default:"Your Application
    |
    v
[Private API Server] ---- REST API (OpenAI-compatible)
    |
    v
[GPU Inference Workers] -- NVIDIA A100/H100/L40S
    |-- TTS Models (Kokoro, Chatterbox, Bark, etc.)
    |-- Voice Cloning (GPT-SoVITS, OpenVoice, etc.)
    |-- STT (Faster Whisper, SenseVoice)
    |-- Audio Processing (Demucs, Enhancement)
    |
[Your Cloud / On-Premises]
    AWS | GCP | Azure | OCI | Bare Metal" }}
  • La misma API de REST que api.tts.ai
  • Endpoints compatibles con OpenAI
  • Los SDKs Python y JavaScript funcionan sin cambios
  • Distribución dinámica de la GPU entre los modelos
  • Sistema de cola de prioridad para un rendimiento óptimo
  • Modelos precargados en VRAM para inferencia instantánea

Construido para

Atención de la salud

Interfaces de voz orientadas al paciente, dictado médico, documentación clínica. Mantenga PHI dentro de su infraestructura compatible.

Servicios financieros

Banca habilitada para voz, transcripción de llamadas de cumplimiento, servicio al cliente automatizado. Residencia de datos en su región elegida.

Gobierno

Servicios públicos accesibles, comunicaciones ciudadanas multilingües, procesamiento de documentos clasificados en las redes aéreas.

Centros de contacto

Sistemas IVR de alto volumen, asistencia de agente en tiempo real, transcripción de llamadas y análisis. Costo predecible a cualquier escala.

Nube compartida vs Nube privada

Nube compartida Nube privada
Aislamiento de datos Infraestructura compartida, suprimida automáticamente en 24h Aislamiento total, sus servidores sólo
Modelo de precios Per-caracter Plano mensual, uso ilimitado
Modelos de IA Todos los modelos Todos los modelos + personalizados
Latencia Cola compartida Dedicado, predecible
Residencia de datos Nuestro centro de datos Su elección de la región
SLA Mejor esfuerzo SLA personalizado disponible
Apoyo Correo electrónico Gestor de cuentas dedicado

Modelos de código abierto, sin bloqueo del vendedor

Cada modelo en TTS.ai Private Cloud es de código abierto (MIT o Apache 2.0). Si alguna vez deja de usar nuestro servicio, mantiene pleno acceso a los modelos subyacentes. No hay dependencias propias ni trampas de licencias.

Kokoro
Chatterbox
CosyVoice 2
Bark
Orpheus
GPT-SoVITS
StyleTTS2
Tortoise
OpenVoice
Piper
VITS
MeloTTS
Faster Whisper
Demucs

Planes de nube privados

Todos los planes incluyen todos los modelos de código abierto.

Self-Hosted

Ejecute en su propio hardware GPU. Proporcionamos la imagen Docker y la licencia.

$99 /mes
  • Docker imagen con todos los modelos
  • Su GPU, sus servidores
  • Validación de la clave de licencia
  • Soporte de correo electrónico
  • Uso ilimitado
Empezar

Iniciador

Una instancia específica de GPU administrada por TTS.ai.

$499 /mes
  • 1 GPU A100
  • 5 generaciones concurrentes
  • Todos los modelos incluidos
  • Autoescalado
  • Soporte de correo electrónico
Empezar
Popular

Pro

instancia de alto rendimiento con cola de prioridad y 20 ranuras concurrentes.

$999 /mes
  • 1 GPU A100
  • 20 generaciones concurrentes
  • Cola de prioridades
  • Autoescalado
  • Apoyo prioritario
Empezar

Empresa

Clúster multi-GPU con SLA, simultáneo ilimitado, y administrador de cuenta dedicado.

$2,499 /mes
  • Multi-GPU (H100)
  • Ilimitado concurrente
  • 99,9% SLA
  • Gestor de cuentas dedicado
  • Región de despliegue personalizado
Empezar

Preguntas frecuentes sobre la nube privada

TTS.ai Private Cloud es una implementación dedicada de la infraestructura de voz de IA. Usted consigue que sus propios servidores GPU ejecuten la pila completa de TTS.ai (texto a voz, clonación de voz, voz a texto y procesamiento de audio) completamente aislados de nuestra plataforma compartida.

Todos los modelos de código abierto disponibles en TTS.ai están incluidos: Kokoro, Chatterbox, CosyVoice 2, Bark, Orpheus, Dia, GLM-TTS, Spark, GPT-SoVITS, StyleTTS2, Tortoise, OpenVoice, Piper, VITS, MeloTTS, y más. También se incluyen modelos de clonación de voz. Todos los modelos tienen licencia MIT o Apache 2.0.

Implementamos en servidores NVIDIA GPU, típicamente A100, H100 o L40S dependiendo de sus necesidades de rendimiento. Una configuración mínima para equipos pequeños es 1x A100 (80GB) que admite 5-10 solicitudes simultáneas. Para la producción de alto volumen, configuramos clústeres multi-GPU con balance de carga.

Apoyamos el despliegue en los principales proveedores de nube (AWS, GCP, Azure, OCI) en cualquier región, o en su propio hardware local. Usted elige la ubicación de alojamiento en función de sus requisitos de cumplimiento y latencia.

Sí. La implementación en la nube privada expone la misma API de REST como api.tts.ai, incluyendo el endpoint compatible con OpenAI. Su código existente, SDKs e integraciones funcionan sin cambios, simplemente apunte a su URL privada de API.

Proporcionamos actualizaciones regulares que incluyen nuevos modelos, parches de seguridad y mejoras de rendimiento. Las actualizaciones se prueban en nuestra plataforma compartida primero, luego se empaquetan para la implementación privada en la nube.

Los modelos individuales de auto-alojamiento requieren ingeniería ML significativa: gestión de la asignación de VRAM, construcción de tuberías de inferencia, manejo de colas, post-procesamiento de audio y mantenimiento de múltiples entornos de modelos. TTS.ai Private Cloud proporciona una pila lista para la producción con todo esto incorporado, además de soporte y actualizaciones permanentes.

El precio depende de la configuración de la GPU, el número de modelos desplegados y el nivel de soporte. Póngase en contacto con nosotros para obtener un presupuesto. No hay tarifas por persona ni por solicitud — usted paga sólo por infraestructura y soporte.

¿Listo para desplegar?

Elija un plan arriba o póngase en contacto con nosotros para requisitos empresariales personalizados.

Empezar Ventas de contacto