voice-system-expert
Sprachsysteme mit Browser-AEC implementieren
Die Implementierung von Sprachschnittstellen erfordert sorgfältige architektonische Entscheidungen, um Audio-Rückkopplungsschleifen zu verhindern und eine zuverlässige Echokompensation sicherzustellen. Diese Anleitung bietet Expertenrat zu bewährten Spracharchitekturen unter Verwendung der OpenAI Realtime API und browserbasierter Echokompensation.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"voice-system-expert" 사용 중입니다. How do I prevent echo in my voice application?
예상 결과:
- Immer eingeschaltetes Mikrofon mit aktivierter Browser-Echokompensation verwenden
- getUserMedia mit echoCancellation: true, noiseSuppression: true, autoGainControl: true konfigurieren
- Audio im Browser-Pipeline halten mit HTMLAudioElement für die Wiedergabe
- Mikrofon-Track nicht umschalten oder Audio außerhalb des Browsers leiten
- Browser-AEC vertrauen - es übernimmt die Echokompensation automatisch
"voice-system-expert" 사용 중입니다. What is the correct architecture for a voice AI assistant?
예상 결과:
- Das branchenübliche Muster verwenden, das von ChatGPT, Zoom und Google Meet genutzt wird
- Mikrofon während der gesamten Konversation eingeschaltet lassen
- Audio durch Browser-WebRTC-Stack zur OpenAI Realtime API leiten
- Antworten über HTMLAudioElement abspielen, um die Browser-Audio-Pipeline aufrechtzuerhalten
- Serverseitige VAD für Turn-Erkennung verwenden, nicht Mikrofon-Umschaltung
보안 감사
안전Pure documentation skill containing only architectural guidance for voice system implementation. No executable code, scripts, network calls, or filesystem access. All 50 static findings are false positives caused by markdown documentation being misidentified as security-sensitive patterns.
위험 요인
🌐 네트워크 접근 (1)
⚙️ 외부 명령어 (29)
품질 점수
만들 수 있는 것
Sprach-KI-Funktionen integrieren
Konversationsfähige Sprachfunktionen zu KI-Anwendungen mit der OpenAI Realtime API und WebRTC-Audio-Streaming hinzufügen
Audio-Pipelines erstellen
Zuverlässige Audioaufnahme- und Wiedergabesysteme mit Browser-Echokompensation und korrekten Medien-Einschränkungen erstellen
Spracharchitektur entwerfen
Sprachsystemmuster etablieren, die Echorückkopplungen verhindern und in allen gängigen Browsern funktionieren
이 프롬프트를 사용해 보세요
How do I set up a basic voice interface using OpenAI Realtime API with browser echo cancellation?
What audio constraints should I use for getUserMedia to enable proper echo cancellation?
My voice system has echo problems. How do I implement the correct browser AEC pattern?
Review my voice system code and ensure it follows the always-on microphone + browser AEC pattern without common anti-patterns
모범 사례
- Immer Browser-Echokompensation mit echoCancellation: true in getUserMedia-Einschränkungen verwenden
- Mikrofon während der gesamten Konversation eingeschaltet lassen - Track-State niemals umschalten
- Gesamtes Audio durch Browser-Pipeline leiten mit HTMLAudioElement, um AEC aufrechtzuerhalten
피하기
- Mikrofon-Track während der Konversation ein- und auszuschalten unterbricht AEC
- Audio außerhalb des Browsers über AudioWorklet zu leiten umgeht die Echokompensation
- Benutzerdefinierte Echokompensation implementieren erfindet das Rad neu und verursacht Probleme