Nodes and media
Modo de conversación
El modo de voz tiene dos formas de runtime:
- La voz nativa en macOS/iOS/Android usa reconocimiento de voz local, chat del Gateway y TTS
talk.speak. Los nodos anuncian la capacidadtalky declaran los comandostalk.*que admiten. - La voz en navegador usa
talk.client.createpara sesioneswebrtcyprovider-websocketpropiedad del cliente, otalk.session.createpara sesionesgateway-relaypropiedad del Gateway.managed-roomestá reservado para la transferencia del Gateway y las salas de walkie-talkie. - Los clientes solo de transcripción usan
talk.session.create({ mode: "transcription", transport: "gateway-relay", brain: "none" }), luegotalk.session.appendAudio,talk.session.cancelTurnytalk.session.closecuando necesitan subtítulos o dictado sin una respuesta de voz del asistente.
La voz nativa es un bucle continuo de conversación por voz:
- Escuchar el habla
- Enviar la transcripción al modelo mediante la sesión activa
- Esperar la respuesta
- Reproducirla mediante el proveedor de voz configurado (
talk.speak)
La voz realtime en navegador reenvía las llamadas a herramientas del proveedor mediante talk.client.toolCall; los clientes de navegador no llaman a chat.send directamente para consultas realtime.
La voz solo de transcripción emite el mismo envoltorio común de eventos de voz que las sesiones realtime y STT/TTS, pero usa mode: "transcription" y brain: "none". Es para subtítulos, dictado y captura de voz solo de observación; las notas de voz cargadas de una sola vez siguen usando la ruta de medios/audio.
Comportamiento (macOS)
- Superposición siempre visible mientras el modo de voz está habilitado.
- Transiciones de fase Escuchando → Pensando → Hablando.
- En una pausa breve (ventana de silencio), se envía la transcripción actual.
- Las respuestas se escriben en WebChat (igual que al escribir).
- Interrumpir al hablar (activado de forma predeterminada): si el usuario empieza a hablar mientras el asistente está hablando, detenemos la reproducción y registramos la marca de tiempo de la interrupción para el siguiente prompt.
Directivas de voz en las respuestas
El asistente puede anteponer a su respuesta una única línea JSON para controlar la voz:
{ "voice": "<voice-id>", "once": true }
Reglas:
- Solo la primera línea no vacía.
- Las claves desconocidas se ignoran.
once: truese aplica solo a la respuesta actual.- Sin
once, la voz pasa a ser el nuevo valor predeterminado para el modo de voz. - La línea JSON se elimina antes de la reproducción TTS.
Claves admitidas:
voice/voice_id/voiceIdmodel/model_id/modelIdspeed,rate(PPM),stability,similarity,style,speakerBoostseed,normalize,lang,output_format,latency_tieronce
Configuración (~/.openclaw/openclaw.json)
{
talk: {
provider: "elevenlabs",
providers: {
elevenlabs: {
voiceId: "elevenlabs_voice_id",
modelId: "eleven_v3",
outputFormat: "mp3_44100_128",
apiKey: "elevenlabs_api_key",
},
mlx: {
modelId: "mlx-community/Soprano-80M-bf16",
},
system: {},
},
speechLocale: "ru-RU",
silenceTimeoutMs: 1500,
interruptOnSpeech: true,
realtime: {
provider: "openai",
providers: {
openai: {
apiKey: "openai_api_key",
model: "gpt-realtime",
voice: "alloy",
},
},
mode: "realtime",
transport: "webrtc",
brain: "agent-consult",
},
},
}
Valores predeterminados:
interruptOnSpeech: truesilenceTimeoutMs: cuando no está definido, la voz mantiene la ventana de pausa predeterminada de la plataforma antes de enviar la transcripción (700 ms en macOS y Android, 900 ms en iOS)provider: selecciona el proveedor de voz activo. Usaelevenlabs,mlxosystempara las rutas de reproducción locales de macOS.providers.<provider>.voiceId: recurre aELEVENLABS_VOICE_ID/SAG_VOICE_IDpara ElevenLabs (o a la primera voz de ElevenLabs cuando hay una clave de API disponible).providers.elevenlabs.modelId: el valor predeterminado eseleven_v3cuando no está definido.providers.mlx.modelId: el valor predeterminado esmlx-community/Soprano-80M-bf16cuando no está definido.providers.elevenlabs.apiKey: recurre aELEVENLABS_API_KEY(o al perfil de shell del Gateway si está disponible).realtime.provider: selecciona el proveedor de voz realtime activo del navegador/servidor. Usaopenaipara WebRTC,googlepara WebSocket de proveedor, o un proveedor solo de puente mediante relay del Gateway.realtime.providers.<provider>almacena la configuración realtime propiedad del proveedor. El navegador recibe solo credenciales de sesión efímeras o restringidas, nunca una clave de API estándar.realtime.brain:agent-consultenruta las llamadas realtime a herramientas mediante la política del Gateway;direct-toolses un comportamiento de compatibilidad solo para propietarios;nonees para transcripción u orquestación externa.talk.catalogexpone los modos, transportes, estrategias de cerebro, formatos de audio realtime y banderas de capacidad válidos de cada proveedor para que los clientes de voz propios puedan evitar combinaciones no admitidas.- Los proveedores de transcripción por streaming se descubren mediante
talk.catalog.transcription. El relay actual del Gateway usa la configuración del proveedor de streaming de Voice Call hasta que se añada la superficie de configuración dedicada de transcripción de voz. speechLocale: id de configuración regional BCP 47 opcional para el reconocimiento de voz de voz en dispositivo en iOS/macOS. Déjalo sin definir para usar el valor predeterminado del dispositivo.outputFormat: el valor predeterminado espcm_44100en macOS/iOS ypcm_24000en Android (definemp3_*para forzar streaming MP3)
Interfaz de usuario de macOS
- Interruptor de la barra de menús: Voz
- Pestaña de configuración: grupo Modo de voz (id de voz + interruptor de interrupción)
- Superposición:
- Escuchando: la nube pulsa con el nivel del micrófono
- Pensando: animación descendente
- Hablando: anillos radiantes
- Clic en la nube: detener el habla
- Clic en X: salir del modo de voz
Interfaz de usuario de Android
- Interruptor de la pestaña de voz: Voz
- Micrófono manual y Voz son modos de captura runtime mutuamente excluyentes.
- Micrófono manual se detiene cuando la aplicación sale del primer plano o el usuario abandona la pestaña de voz.
- El modo de voz sigue ejecutándose hasta que se desactiva o el nodo Android se desconecta, y usa el tipo de servicio en primer plano de micrófono de Android mientras está activo.
Notas
- Requiere permisos de voz y micrófono.
- La voz nativa usa la sesión activa del Gateway y solo recurre al sondeo del historial cuando los eventos de respuesta no están disponibles.
- La voz realtime en navegador usa
talk.client.toolCallparaopenclaw_agent_consulten lugar de exponerchat.senda sesiones de navegador propiedad del proveedor. - La voz solo de transcripción usa
talk.session.create,talk.session.appendAudio,talk.session.cancelTurnytalk.session.close; los clientes se suscriben atalk.eventpara recibir actualizaciones parciales/finales de la transcripción. - El gateway resuelve la reproducción de voz mediante
talk.speakusando el proveedor de voz activo. Android recurre a TTS local del sistema solo cuando ese RPC no está disponible. - La reproducción MLX local de macOS usa el helper
openclaw-mlx-ttsincluido cuando está presente, o un ejecutable enPATH. DefineOPENCLAW_MLX_TTS_BINpara apuntar a un binario helper personalizado durante el desarrollo. stabilityparaeleven_v3se valida como0.0,0.5o1.0; otros modelos aceptan0..1.latency_tierse valida como0..4cuando está definido.- Android admite formatos de salida
pcm_16000,pcm_22050,pcm_24000ypcm_44100para streaming AudioTrack de baja latencia.