VibeVoice

Microsoft VibeVoice est un modèle de synthèse vocale long format et multi-locuteurs pour l'anglais et le chinois. Contrairement aux TTS d'énoncés courts, il est conçu pour générer en une seule passe des dialogues de la durée d'un podcast, de la narration de livres audio et des scènes multi-locuteurs — jusqu'à 90 minutes avec jusqu'à 4 voix distinctes et une identité cohérente sur l'ensemble. Deux variantes sont disponibles : Realtime-0.5B pour le streaming à faible latence et 1.5B pour la qualité phare en long format.

Présentation

Architecture

Quatre composants coopèrent pour produire l'audio un latent à 7,5 Hz à la fois :

ComposantDescription
Split Qwen2 backbone24-layer Qwen2.5 decoder (896 hidden, GQA 14/2 for Realtime-0.5B). The model is split: the lower 4 layers form a text LM, the upper 20 layers run as the TTS LM. Text windows (5 tokens at a time) flow through both; generated speech latents flow only through the TTS LM.
σ-VAE acoustic tokenizerStreaming conv stack that encodes 24 kHz audio to a 64-dim latent at 7.5 Hz (3200× temporal downsample) and decodes latents back to waveform. Used for both voice-cache creation and final audio decode.
Diffusion headSmall 4-layer DDPM head with adaLN modulation. Samples each speech latent via 20-step DPM-Solver with classifier-free guidance (cfg = 1.3 default for Realtime-0.5B, 1.5 for 1.5B).
EOS classifierPer-step binary classifier on the TTS LM's last hidden state. When sigmoid probability exceeds 0.5, generation stops.

Clonage vocal via voice-cache

L'identité du locuteur ne provient pas d'une forme d'onde de référence au moment de la génération. À la place, chaque voix est livrée sous la forme d'un voice cache .safetensors précalculé contenant les caches KV de conditionnement et les états cachés pour un locuteur donné — produits hors ligne en faisant passer l'audio de référence dans le chemin de l'encodeur. Charger un voice cache est instantané à l'exécution ; une même instance du modèle peut changer de voix à faible coût entre les générations.

Exemples de voice caches (licence MIT) : mzbac/vibevoice.swift/voice_cache — 7 voix anglaises dont Carter, Davis, Emma, Frank, Grace, Mike et Samuel à accent indien.

Modèle

BundleQuantificationTailleHuggingFace
Realtime-0.5BBF16 (source)~1 GBmicrosoft/VibeVoice-Realtime-0.5B
Realtime-0.5B INT4Qwen2 INT4, tokenizer + diffusion FP16~350 MBaufklarer/VibeVoice-Realtime-0.5B-MLX-INT4
Realtime-0.5B INT8Qwen2 INT8~570 MBaufklarer/VibeVoice-Realtime-0.5B-MLX-INT8
1.5B long-formBF16 (source)~3 GBmicrosoft/VibeVoice-1.5B
1.5B INT4Qwen2 INT4~1 GBaufklarer/VibeVoice-1.5B-MLX-INT4

La quantification est produite par models/vibevoice/export/convert.py via la quantification affine par groupes de MLX (groupe 32). Les embeddings, normalisations, convolutions de l'acoustic-tokenizer et le classifieur EOS conservent leur dtype d'origine.

Démarrage rapide

import VibeVoiceTTS

let tts = try await VibeVoiceTTSModel.fromPretrained()
try tts.loadVoice(from: "/path/to/voice_cache/en-Mike_man.safetensors")
let pcm = try await tts.generate(text: "Hello world.")
// pcm: [Float] at 24 kHz mono

Préréglage 1.5B long format

let config = VibeVoiceTTSModel.Configuration.longForm1_5B
let tts = try await VibeVoiceTTSModel.fromPretrained(configuration: config)
try tts.loadVoice(from: "voices/narrator.safetensors")
let pcm = try await tts.generate(text: longTranscript)  // up to ~90 min

Le préréglage longForm1_5B porte maxSpeechTokens à 4000 et cfgScale à 1,5 pour une sortie long format de meilleure fidélité.

Changer de voix entre les générations

try tts.loadVoice(from: "en-Mike_man.safetensors")
let a = try await tts.generate(text: "First speaker line.")
try tts.loadVoice(from: "en-Emma_woman.safetensors")
let b = try await tts.generate(text: "Second speaker line.")

CLI

audio vibevoice "Hello world." \
    --voice-cache voice_cache/en-Mike_man.safetensors \
    --output hello.wav

# Long format 1.5B
audio vibevoice "Long paragraph ..." \
    --voice-cache voices/narrator.safetensors \
    --long-form \
    --max-tokens 4000 \
    --output episode.wav

Options : --steps (étapes du DPM-Solver), --cfg (guidance), --model / --tokenizer pour surcharger les IDs HuggingFace, --long-form pour basculer sur le préréglage 1.5B, --verbose pour les temps.

Choisir parmi les modules TTS de speech-swift

Kokoro-82MQwen3-TTSCosyVoice3VibeVoice RealtimeVibeVoice 1.5B
Paramètres82M7B7B500M1.5B
BackendCoreML (ANE)MLXMLXMLXMLX
Langues810+10+EN/ZHEN/ZH
Clonage vocalPréréglages fixesRéférence ICLRéférence zero-shotVoice cacheVoice cache
Long formatCourt/moyenStreamingStreamingStreamingJusqu'à 90 min / 4 locuteurs
Choisissez VibeVoice quand…

…vous avez besoin d'une sortie long format, multi-locuteurs ou podcast/livre audio en anglais ou chinois, avec une identité vocale cohérente sur plusieurs minutes d'audio. Pour du TTS multilingue court, Qwen3-TTS ou CosyVoice3 conviennent mieux. Pour des énoncés courts natifs iOS, Kokoro est l'option la plus légère.