Architektur

speech-swift ist als modulares Swift-Paket organisiert mit gemeinsamen Protokollen, unabhängigen Modellmodulen und einer einheitlichen CLI. Die gesamte Inferenz läuft auf dem Gerät über MLX (Metal-GPU) oder CoreML (Neural Engine).

Modul-Abhängigkeitsgraph

                    ┌──────────┐
                    │ AudioCLI │  (Einstiegspunkt)
                    └────┬─────┘
                         │
                  ┌──────┴──────┐
                  │ AudioCLILib │  (Befehle)
                  └──────┬──────┘
                         │
       ┌─────────┬───────┼───────┬──────────┬──────────────┐
       │         │       │       │          │              │
  ┌────┴───┐ ┌──┴──┐ ┌──┴──┐ ┌─┴────┐ ┌───┴────┐ ┌──────┴───────┐
  │Qwen3ASR│ │Qwen3│ │Cosy │ │Perso-│ │Speech- │ │  Speech-     │
  │Parakeet│ │ TTS │ │Voice│ │naPlex│ │  VAD   │ │Enhancement   │
  └────┬───┘ └──┬──┘ └──┬──┘ └──┬───┘ └───┬───┘ └──────┬───────┘
       │        │       │       │         │             │
       └────────┴───────┼───────┴─────────┘             │
                        │                               │
                 ┌──────┴──────┐                        │
                 │ Qwen3Common │  (gemeinsame Schichten)│
                 └──────┬──────┘                        │
                        │                               │
                 ┌──────┴──────┐                        │
                 │ AudioCommon │ ◄──────────────────────┘
                 └─────────────┘  (Protokolle, Audio-I/O)

Inferenz-Backends

BackendHardwareModelle
MLX Metal-GPU Qwen3-ASR, Qwen3-TTS, CosyVoice3, Qwen3.5-Chat, PersonaPlex, Omnilingual ASR (300M / 1B / 3B / 7B), Pyannote, Silero VAD, WeSpeaker
CoreML Neural Engine Qwen3-ASR-Encoder (Hybrid), Parakeet TDT, Parakeet EOU Streaming, Omnilingual ASR 300M, Kokoro-82M, Qwen3.5-Chat (optional), Sortformer-Diarisierung, DeepFilterNet3, Silero VAD (optional), WeSpeaker (optional)
Accelerate CPU (SIMD) Audio-Vorverarbeitung (STFT, Mel, FFT), Signalverarbeitung

Modell-Gewichtsformat

MLX-Modelle verwenden das Format safetensors mit 4-Bit- oder 8-Bit-Quantisierung (Gruppengröße 64). CoreML-Modelle verwenden das kompilierte Format .mlmodelc. Konvertierungsskripte in scripts/ konvertieren aus PyTorch-Checkpoints.

ModellParameterQuantisierungGröße auf Disk
Qwen3-ASR 0.6B (MLX)~600M4-Bit / 8-Bit680 MB / 1,0 GB
Qwen3-ASR 0.6B (CoreML)~186M (Encoder)INT8~180 MB
Qwen3-ASR 1.7B (MLX)~1,7B4-Bit / 8-Bit2,1 GB / 3,2 GB
Parakeet-TDT 0.6B (CoreML)~600MINT8500 MB
Parakeet-EOU 120M (CoreML)~120MINT8~120 MB
Omnilingual-ASR-CTC 300M (CoreML)326MINT8312 MB
Omnilingual-ASR-CTC 300M (MLX)326M4-Bit / 8-Bit193 MB / 342 MB
Omnilingual-ASR-CTC 1B (MLX)1,01B4-Bit / 8-Bit549 MB / 1006 MB
Omnilingual-ASR-CTC 3B (MLX)~3B4-Bit / 8-Bit1,71 GB / 3,16 GB
Omnilingual-ASR-CTC 7B (MLX)~7B4-Bit / 8-Bit3,55 GB / 6,63 GB
Qwen3-ForcedAligner 0.6B (MLX)~600M4-Bit / 8-Bit979 MB / 1,4 GB
Qwen3-ForcedAligner 0.6B (CoreML)~600MINT4 / INT8630 MB / 1,0 GB
Qwen3-TTS 0.6B (MLX)~600M4-Bit / 8-Bit1,7 GB / 2,4 GB
Qwen3-TTS 1.7B (MLX)~1,7B4-Bit / 8-Bit3,2 GB / 4,8 GB
CosyVoice3 0.5B (MLX)~500M4-Bit-LLM~1,2 GB
Kokoro-82M (CoreML)82MINT8 (1 Bucket)~89 MB
Qwen3.5-Chat 0.8B (MLX)~800MINT4418 MB
Qwen3.5-Chat 0.8B (CoreML)~800MINT8981 MB
PersonaPlex 7B (MLX)~7B4-Bit / 8-Bit4,9 GB / 9,1 GB
Pyannote VAD (MLX)~1,49Mfloat32~5,7 MB
Silero VAD v5~309Kfloat32~1,2 MB (MLX & CoreML)
WeSpeaker ResNet34~6,6Mfloat32~25 MB (MLX & CoreML)
Sortformer (CoreML)float16~50 MB
DeepFilterNet3 (CoreML)~2,1MFP16~4,2 MB

Leistungsoptimierungen

Audio-Verarbeitung

Alle Audio-I/O verwenden Float32-PCM. Internes Resampling übernimmt die Formatkonvertierung:

ModellErwartete RateFormat
Qwen3-ASR16 kHzMono Float32
Qwen3-TTS24 kHz AusgabeMono Float32
CosyVoice324 kHz AusgabeMono Float32
Kokoro-82M24 kHz AusgabeMono Float32
PersonaPlex24 kHz I/OMono Float32
Pyannote VAD16 kHzMono Float32
Silero VAD16 kHzMono Float32
WeSpeaker16 kHzMono Float32
DeepFilterNet348 kHzMono Float32

Quellstruktur

Sources/
  AudioCommon/            Gemeinsame Protokolle, Audio-I/O, HuggingFace-Downloader,
                          SentencePieceModel (protobuf-Reader)
  MLXCommon/              MLX-Hilfsprogramme: Gewichtsladen, QuantizedLinear-Helfer,
                          SDPA-Multi-Head-Attention-Helfer, Metal-Budget
  Qwen3Common/            Gemeinsame Modellkomponenten (KV-Cache, RoPE, Quantisierung)
  Qwen3ASR/               Qwen3-ASR Sprache-zu-Text
  ParakeetASR/            Parakeet TDT Sprache-zu-Text (CoreML)
  ParakeetStreamingASR/   Parakeet EOU 120M Streaming-Diktat (CoreML)
  OmnilingualASR/         Meta wav2vec2 + CTC, 1.672 Sprachen
                          (CoreML 300M + MLX 300M / 1B / 3B / 7B)
  Qwen3TTS/               Qwen3-TTS Text-zu-Sprache
  CosyVoiceTTS/           CosyVoice3 Text-zu-Sprache
  KokoroTTS/              Kokoro-82M Text-zu-Sprache (CoreML)
  Qwen3Chat/              Qwen3.5-0.8B LLM-Chat auf dem Gerät (MLX + CoreML)
  PersonaPlex/            PersonaPlex Sprache-zu-Sprache
  SpeechVAD/              VAD (Silero + Pyannote), Diarisierung, Sprechereinbettungen
  SpeechEnhancement/      DeepFilterNet3 Rauschunterdrückung (CoreML)
  AudioCLILib/            CLI-Befehlsimplementierungen
  AudioCLI/               CLI-Einstiegspunkt

scripts/              Modellkonvertierung (PyTorch → MLX/CoreML), Benchmarking
Tests/                Unit- und Integrationstests
Examples/             Demo-Apps (PersonaPlexDemo, SpeechDemo)