Referência da CLI

O binário audio é o ponto de entrada principal para todas as tarefas de processamento de fala. Compile com make build, depois execute a partir de .build/release/audio.

transcribe

Transcreve arquivos de áudio para texto.

audio transcribe <file> [options]
OpçãoPadrãoDescrição
<file>Arquivo de áudio para transcrever (WAV, M4A, MP3, CAF)
--engineqwen3Engine de ASR: qwen3, qwen3-coreml, parakeet ou omnilingual
--model, -m0.6BVariante do modelo: 0.6B, 1.7B ou ID completo do modelo no HuggingFace (apenas qwen3)
--languageDica de idioma (opcional, ignorada pelo omnilingual)
--window10[omnilingual] Tamanho da janela CoreML em segundos: 5 ou 10
--backendcoreml[omnilingual] Backend: coreml (Neural Engine) ou mlx (GPU Metal)
--variant300M[omnilingual mlx] Tamanho: 300M, 1B, 3B ou 7B
--bits4[omnilingual mlx] Bits de quantização: 4 ou 8
--streamAtiva transcrição em streaming com VAD
--max-segment10Duração máxima do segmento em segundos (streaming)
--partialEmite resultados parciais durante a fala (streaming)

Exemplos:

# Transcrição básica
audio transcribe recording.wav

# Usar modelo maior
audio transcribe recording.wav --model 1.7B

# Encoder CoreML (Neural Engine + decodificador MLX)
audio transcribe recording.wav --engine qwen3-coreml

# Usar engine Parakeet (CoreML)
audio transcribe recording.wav --engine parakeet

# Omnilingual (CoreML, 1.672 idiomas)
audio transcribe recording.wav --engine omnilingual                              # janela de 10 s
audio transcribe recording.wav --engine omnilingual --window 5                     # janela de 5 s

# Omnilingual (MLX, qualquer duração até 40 s)
audio transcribe recording.wav --engine omnilingual --backend mlx                              # 300M @ 4-bit
audio transcribe recording.wav --engine omnilingual --backend mlx --variant 1B                  # 1B @ 4-bit
audio transcribe recording.wav --engine omnilingual --backend mlx --variant 3B --bits 8         # 3B @ 8-bit
audio transcribe recording.wav --engine omnilingual --backend mlx --variant 7B                  # 7B @ 4-bit

# Streaming com VAD
audio transcribe recording.wav --stream --partial

align

Alinhamento forçado por palavra — obtenha timestamps precisos para cada palavra.

audio align <file> [options]
OpçãoPadrãoDescrição
<file>Arquivo de áudio
--text, -tTexto para alinhar (se omitido, transcreve primeiro)
--model, -m0.6BModelo de ASR para transcrição: 0.6B, 1.7B ou ID completo
--aligner-modelID do modelo do alinhador forçado
--languageDica de idioma

Exemplos:

# Transcrever automaticamente e depois alinhar
audio align recording.wav

# Alinhar com texto conhecido
audio align recording.wav --text "Can you guarantee that the replacement part will be shipped tomorrow?"

speak

Síntese de texto para fala.

audio speak "<text>" [options]
OpçãoPadrãoDescrição
<text>Texto para sintetizar (opcional se usar --batch-file)
--engineqwen3Engine de TTS: qwen3 ou cosyvoice
--output, -ooutput.wavCaminho do arquivo WAV de saída
--languageenglishIdioma. Omita para usar o dialeto nativo do locutor quando --speaker estiver definido.
--streamAtiva síntese em streaming
--voice-sampleÁudio de referência para clonagem de voz (funciona com os engines qwen3 e cosyvoice)
--verboseMostra informações detalhadas de timing

Opções do Qwen3-TTS

OpçãoPadrãoDescrição
--modelbaseVariante do modelo: base, customVoice ou ID completo de modelo HF
--speakerVoz do locutor (requer --model customVoice)
--instructInstrução de estilo (modelo CustomVoice)
--list-speakersLista os locutores disponíveis e sai
--temperature0.3Temperatura de amostragem
--top-k50Amostragem top-k
--max-tokens500Máximo de tokens (500 = ~40s de áudio)
--batch-fileArquivo com um texto por linha para síntese em lote
--batch-size4Tamanho máximo do lote para geração paralela
--first-chunk-frames3Frames de codec no primeiro chunk em streaming
--chunk-frames25Frames de codec por chunk em streaming

Opções do CosyVoice3

OpçãoPadrãoDescrição
--speakersMapeamento de locutores para diálogo multi-locutor: s1=alice.wav,s2=bob.wav
--cosy-instructInstrução de estilo (sobrescreve o padrão). Controla o estilo de voz do CosyVoice3.
--turn-gap0.2Intervalo de silêncio entre turnos de diálogo em segundos
--crossfade0.0Sobreposição de crossfade entre turnos em segundos
--model-idID do modelo no HuggingFace

Exemplos:

# TTS básico
audio speak "Hello, world!" --output hello.wav

# Clonagem de voz (Qwen3-TTS)
audio speak "Hello in your voice" --voice-sample reference.wav -o cloned.wav

# Clonagem de voz (CosyVoice)
audio speak "Hello in your voice" --engine cosyvoice --voice-sample reference.wav -o cloned.wav

# CosyVoice multilíngue
audio speak "Hallo Welt" --engine cosyvoice --language german -o hallo.wav

# Diálogo multi-locutor
audio speak "[S1] Hello there! [S2] Hey, how are you?" \
    --engine cosyvoice --speakers s1=alice.wav,s2=bob.wav -o dialogue.wav

# Tags de emoção/estilo inline
audio speak "(excited) Wow, amazing! (sad) But I have to go..." \
    --engine cosyvoice -o emotion.wav

# Combinado: diálogo + emoções + clonagem de voz
audio speak "[S1] (happy) Great news! [S2] (surprised) Really?" \
    --engine cosyvoice --speakers s1=alice.wav,s2=bob.wav -o combined.wav

# Instrução de estilo personalizada
audio speak "Hello world" --engine cosyvoice --cosy-instruct "Speak cheerfully" -o cheerful.wav

# Síntese em streaming
audio speak "Long text here..." --stream

# Síntese em lote a partir de arquivo
audio speak --batch-file texts.txt --batch-size 4

kokoro

Texto para fala leve usando Kokoro-82M no Neural Engine (CoreML). Não-autorregressivo — um único forward pass, latência ~45ms.

audio kokoro "<text>" [options]
OpçãoPadrãoDescrição
<text>Texto para sintetizar
--voiceaf_heartPreset de voz (50 disponíveis em 10 idiomas)
--languageenCódigo de idioma: en, es, fr, hi, it, ja, pt, zh, ko, de
--output, -okokoro_output.wavCaminho do arquivo WAV de saída
--list-voicesLista todas as vozes disponíveis e sai
--model, -mID do modelo no HuggingFace

Exemplos:

# Kokoro TTS básico
audio kokoro "Hello, world!" --voice af_heart -o hello.wav

# Voz francesa
audio kokoro "Bonjour le monde" --voice ff_siwis --language fr -o bonjour.wav

# Listar todas as 50 vozes
audio kokoro --list-voices

respond

Diálogo fala-a-fala full-duplex usando PersonaPlex 7B.

audio respond [options]
OpçãoPadrãoDescrição
--input, -iArquivo WAV de áudio de entrada (24kHz mono) (obrigatório)
--output, -oresponse.wavArquivo WAV de resposta de saída
--voiceNATM0Preset de voz (ex. NATM0, NATF1, VARF0)
--system-promptassistantPreset: assistant, focused, customer-service, teacher
--system-prompt-textTexto de system prompt personalizado (sobrescreve o preset)
--max-steps200Máximo de passos de geração a 12.5Hz (~16s)
--streamEmite chunks de áudio durante a geração
--compileAtiva o transformer compilado (warmup + fusão de kernels)
--list-voicesLista os presets de voz disponíveis
--list-promptsLista os presets de system prompt disponíveis
--transcriptImprime o texto do monólogo interno do modelo
--jsonSaída como JSON (transcript, latência, caminho do áudio)
--verboseMostra informações detalhadas de timing

Ajustes de amostragem

OpçãoPadrãoDescrição
--audio-temp0.8Temperatura de amostragem de áudio
--text-temp0.7Temperatura de amostragem de texto
--audio-top-k250Candidatos top-k de áudio
--repetition-penalty1.2Penalidade de repetição de áudio (1.0 = desativado)
--text-repetition-penalty1.2Penalidade de repetição de texto (1.0 = desativado)
--repetition-window30Janela da penalidade de repetição em frames
--silence-early-stop15Frames de silêncio antes do early stop (0 = desativado)
--entropy-threshold0Limiar de entropia de texto para early stop (0 = desativado)
--entropy-window10Passos consecutivos de baixa entropia antes do early stop

Exemplos:

# Fala-a-fala básico
audio respond --input question.wav

# Usar voz feminina com transformer compilado
audio respond -i question.wav --voice NATF1 --compile

# Resposta em streaming e mostrar transcript
audio respond -i question.wav --stream --transcript --verbose

vad

Detecção de atividade de voz offline usando segmentação Pyannote.

audio vad <file> [options]
OpçãoDescrição
<file>Arquivo de áudio para analisar
--model, -mID do modelo no HuggingFace
--onsetLimiar de onset (início da fala)
--offsetLimiar de offset (fim da fala)
--min-speechDuração mínima de fala em segundos
--min-silenceDuração mínima de silêncio em segundos
--jsonSaída como JSON

vad-stream

Detecção de atividade de voz em streaming usando Silero VAD v5. Processa áudio em chunks de 32ms.

audio vad-stream <file> [options]
OpçãoDescrição
<file>Arquivo de áudio para analisar
--engineEngine de VAD: mlx (padrão) ou coreml
--model, -mID do modelo no HuggingFace (selecionado automaticamente pelo engine)
--onsetLimiar de onset
--offsetLimiar de offset
--min-speechDuração mínima de fala em segundos
--min-silenceDuração mínima de silêncio em segundos
--jsonSaída como JSON

diarize

Diarização de falantes — identifica quem falou quando.

audio diarize <file> [options]
OpçãoPadrãoDescrição
<file>Arquivo de áudio para analisar
--enginepyannoteEngine de diarização: pyannote (segmentação + chaining de falantes) ou sortformer (CoreML ponta-a-ponta)
--target-speakerÁudio de enrollment para extração de falante alvo (apenas pyannote)
--embedding-enginemlxEngine de embedding de falante: mlx ou coreml (apenas pyannote)
--vad-filterPré-filtro com Silero VAD (apenas pyannote)
--rttmSaída no formato RTTM
--jsonSaída como JSON
--score-againstArquivo RTTM de referência para calcular DER

Exemplos:

# Diarização básica (pyannote, padrão)
audio diarize meeting.wav

# Sortformer ponta-a-ponta (CoreML, Neural Engine)
audio diarize meeting.wav --engine sortformer

# Saída RTTM para avaliação
audio diarize meeting.wav --rttm

# Extração de falante alvo (apenas pyannote)
audio diarize meeting.wav --target-speaker enrollment.wav

# Avaliar contra referência
audio diarize meeting.wav --score-against reference.rttm

embed-speaker

Extrai um vetor de embedding de falante a partir do áudio.

audio embed-speaker <file> [options]
OpçãoDescrição
<file>Arquivo de áudio contendo a voz do falante
--engineEngine de inferência: mlx (padrão), coreml (WeSpeaker 256-dim) ou camplusplus (CAM++ CoreML 192-dim)
--jsonSaída como JSON

denoise

Remove o ruído de fundo usando DeepFilterNet3 no Neural Engine.

audio denoise <file> [options]
OpçãoPadrãoDescrição
<file>Arquivo de áudio de entrada
--output, -oinput_clean.wavCaminho do arquivo de saída
--model, -mID do modelo no HuggingFace

Exemplo:

audio denoise noisy-recording.wav -o clean.wav