Clonage vocal

Clonez n'importe quelle voix à partir d'un court échantillon audio de référence. Qwen3-TTS et CosyVoice3 prennent tous deux en charge le clonage vocal avec différents encodeurs de locuteur — ECAPA-TDNN (1024 dim) et CAM++ (192 dim) respectivement.

Fonctionnement

  1. Enregistrez ou fournissez un échantillon audio de référence de la voix cible
  2. Extraction de l'empreinte de locuteur — un encodeur de locuteur traite l'audio de référence en un vecteur d'embedding à dimension fixe
  3. Injection de l'embedding — l'embedding de locuteur conditionne le modèle TTS pendant la synthèse
  4. Synthèse vocale — le modèle TTS génère une parole qui correspond aux caractéristiques vocales de l'échantillon de référence

Moteurs

Le clonage vocal est disponible avec les deux moteurs TTS. Chacun utilise un encodeur de locuteur différent :

MoteurEncodeur de locuteurEmbeddingBackend
Qwen3-TTSECAPA-TDNNx-vector 1024 dimMLX (GPU)
CosyVoice3CAM++192 dimCoreML (Neural Engine)

CosyVoice3 + CAM++

CosyVoice3 utilise l'encodeur de locuteur CAM++ (Context-Aware Masking++) du projet 3D-Speaker d'Alibaba. L'embedding 192 dim conditionne le modèle flow DiT via une couche de projection affine (192 → 80) qui a été entraînée conjointement avec CosyVoice3.

Architecture CAM++

ÉtapeDescription
FCMModule convolutionnel d'entrée (Conv2d + 2 ResBlocks, 32 canaux)
TDNNTime Delay Neural Network (320 vers 128 canaux, kernel size 5)
Blocs D-TDNN3 blocs densément connectés (12/24/16 couches) avec masquage sensible au contexte
Stats PoolPooling moyenne + écart-type (statistiques globales)
DenseProjection linéaire vers un embedding 192 dim

Le modèle CoreML (~14 Mo, FP16) s'exécute sur le Neural Engine. Il est téléchargé automatiquement depuis aufklarer/CamPlusPlus-Speaker-CoreML à la première utilisation.

Clonage vocal Qwen3-TTS

Qwen3-TTS prend en charge deux modes de clonage vocal :

Mode ICL (recommandé)

Le mode In-Context Learning encode l'audio de référence en tokens de codec via l'encodeur du tokenizer de parole Mimi et les préfixe avec la transcription de référence. Cela donne au modèle un contexte acoustique complet — qualité supérieure et EOS fiable (corrige les problèmes sur les textes courts et les langues non anglaises).

let (model, encoder) = try await Qwen3TTSModel.fromPretrainedWithEncoder()
let audio = model.synthesizeWithVoiceCloneICL(
    text: "Target text to synthesize.",
    referenceAudio: refSamples,
    referenceSampleRate: 24000,
    referenceText: "Exact transcript of reference audio.",
    language: "english",
    codecEncoder: encoder
)

Mode x-vector

Utilise un encodeur ECAPA-TDNN qui produit un x-vector 1024 dim. Pas besoin de transcription mais qualité inférieure. Peut échouer à émettre EOS sur des textes courts ou certaines langues.

Architecture ECAPA-TDNN

ÉtapeDescription
TDNNTime Delay Neural Network (128 vers 512 canaux, kernel size 5)
Blocs SE-Res2Net3 blocs avec Squeeze-and-Excitation (512 canaux, dilation 2/3/4)
MFAAgrégation multi-couches de caractéristiques (1536 canaux + ReLU)
ASPAttentive Statistics Pooling (1536 canaux, softmax dans le temps)
FCCouche entièrement connectée (3072 vers 1024 dimensions)

Les poids (76 paramètres) sont inclus dans les safetensors de Qwen3-TTS — aucun téléchargement séparé requis.

Utilisation en CLI

# Clonage vocal CosyVoice3 (CAM++, Neural Engine CoreML)
.build/release/audio speak "Text in the cloned voice" \
    --engine cosyvoice --voice-sample reference.wav -o output.wav

# Clonage vocal Qwen3-TTS (ECAPA-TDNN, GPU MLX)
.build/release/audio speak "Text in the cloned voice" \
    --voice-sample reference.wav -o output.wav

Exemples

# CosyVoice3 : clonage vocal multilingue (9 langues)
.build/release/audio speak "Hello, this is my cloned voice." \
    --engine cosyvoice --voice-sample my_voice.wav -o cloned_hello.wav

# CosyVoice3 : cloner une voix dans une autre langue
.build/release/audio speak "Guten Tag, das ist meine geklonte Stimme." \
    --engine cosyvoice --voice-sample my_voice.wav --language german -o german.wav

# Qwen3-TTS : clonage vocal anglais
.build/release/audio speak "The quick brown fox jumps over the lazy dog." \
    --voice-sample recording_15s.wav -o cloned_fox.wav

Dialogue multi-locuteurs

CosyVoice3 prend en charge les dialogues multi-locuteurs avec clonage vocal par locuteur. Utilisez l'option --speakers pour associer les tags de locuteur aux fichiers audio de référence :

# Dialogue à deux locuteurs avec clonage vocal
.build/release/audio speak "[S1] Hello there! [S2] Hey, how are you?" \
    --engine cosyvoice --speakers s1=alice.wav,s2=bob.wav -o dialogue.wav

# Dialogue avec tags d'émotion + clonage vocal
.build/release/audio speak "[S1] (happy) Great news! [S2] (surprised) Really? Tell me more." \
    --engine cosyvoice --speakers s1=alice.wav,s2=bob.wav -o emotional_dialogue.wav

# Ajuster le silence entre les tours
.build/release/audio speak "[S1] First line. [S2] Second line." \
    --engine cosyvoice --speakers s1=a.wav,s2=b.wav --turn-gap 0.5 -o gapped.wav

L'audio de référence de chaque locuteur est traité par l'encodeur CAM++ pour extraire un embedding 192 dim. Le modèle est chargé une fois et réutilisé pour tous les locuteurs. Voir le guide CosyVoice3 pour tous les détails sur la syntaxe de dialogue et les tags d'émotion.

Conseils sur l'audio de référence

Important

Pour Qwen3-TTS, le clonage vocal fonctionne uniquement avec le modèle base — pas avec customVoice. Le clonage vocal de CosyVoice3 fonctionne avec le modèle par défaut.

API Swift

import CosyVoiceTTS

// Clonage vocal CosyVoice3
let model = try await CosyVoiceTTSModel.fromPretrained()
let speaker = try await CamPlusPlusSpeaker.fromPretrained()

// Extraire l'embedding de locuteur 192 dim de l'audio de référence
let embedding = try speaker.embed(audio: refSamples, sampleRate: 16000)

// Synthétiser avec la voix clonée
let audio = model.synthesize(
    text: "Hello in a cloned voice!",
    speakerEmbedding: embedding
)

// Avec instruction personnalisée + embedding de locuteur
let styledAudio = model.synthesize(
    text: "Hello!",
    instruction: "Speak happily and with excitement.",
    speakerEmbedding: embedding
)

// Dialogue multi-locuteurs
let segments = DialogueParser.parse("[S1] (happy) Hi! [S2] Hey there.")
let embeddings = ["S1": aliceEmbedding, "S2": bobEmbedding]
let dialogueAudio = DialogueSynthesizer.synthesize(
    segments: segments,
    speakerEmbeddings: embeddings,
    model: model,
    language: "english"
)
import Qwen3TTS

// Clonage vocal Qwen3-TTS
let model = try await Qwen3TTSModel.fromPretrained()
let audio = model.synthesizeWithVoiceClone(
    text: "Hello in a cloned voice!",
    referenceAudio: refSamples,
    referenceSampleRate: 24000
)