스킬 voice-system-expert
🎙️

voice-system-expert

안전 🌐 네트워크 접근⚙️ 외부 명령어

Sprachsysteme mit Browser-AEC implementieren

Die Implementierung von Sprachschnittstellen erfordert sorgfältige architektonische Entscheidungen, um Audio-Rückkopplungsschleifen zu verhindern und eine zuverlässige Echokompensation sicherzustellen. Diese Anleitung bietet Expertenrat zu bewährten Spracharchitekturen unter Verwendung der OpenAI Realtime API und browserbasierter Echokompensation.

지원: Claude Codex Code(CC)
📊 69 적절함
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"voice-system-expert" 사용 중입니다. How do I prevent echo in my voice application?

예상 결과:

  • Immer eingeschaltetes Mikrofon mit aktivierter Browser-Echokompensation verwenden
  • getUserMedia mit echoCancellation: true, noiseSuppression: true, autoGainControl: true konfigurieren
  • Audio im Browser-Pipeline halten mit HTMLAudioElement für die Wiedergabe
  • Mikrofon-Track nicht umschalten oder Audio außerhalb des Browsers leiten
  • Browser-AEC vertrauen - es übernimmt die Echokompensation automatisch

"voice-system-expert" 사용 중입니다. What is the correct architecture for a voice AI assistant?

예상 결과:

  • Das branchenübliche Muster verwenden, das von ChatGPT, Zoom und Google Meet genutzt wird
  • Mikrofon während der gesamten Konversation eingeschaltet lassen
  • Audio durch Browser-WebRTC-Stack zur OpenAI Realtime API leiten
  • Antworten über HTMLAudioElement abspielen, um die Browser-Audio-Pipeline aufrechtzuerhalten
  • Serverseitige VAD für Turn-Erkennung verwenden, nicht Mikrofon-Umschaltung

보안 감사

안전
v5 • 1/16/2026

Pure documentation skill containing only architectural guidance for voice system implementation. No executable code, scripts, network calls, or filesystem access. All 50 static findings are false positives caused by markdown documentation being misidentified as security-sensitive patterns.

2
스캔된 파일
495
분석된 줄 수
2
발견 사항
5
총 감사 수
감사자: claude 감사 이력 보기 →

품질 점수

38
아키텍처
100
유지보수성
87
콘텐츠
20
커뮤니티
100
보안
91
사양 준수

만들 수 있는 것

Sprach-KI-Funktionen integrieren

Konversationsfähige Sprachfunktionen zu KI-Anwendungen mit der OpenAI Realtime API und WebRTC-Audio-Streaming hinzufügen

Audio-Pipelines erstellen

Zuverlässige Audioaufnahme- und Wiedergabesysteme mit Browser-Echokompensation und korrekten Medien-Einschränkungen erstellen

Spracharchitektur entwerfen

Sprachsystemmuster etablieren, die Echorückkopplungen verhindern und in allen gängigen Browsern funktionieren

이 프롬프트를 사용해 보세요

Grundlegende Spracheinrichtung
How do I set up a basic voice interface using OpenAI Realtime API with browser echo cancellation?
Audio-Einschränkungen
What audio constraints should I use for getUserMedia to enable proper echo cancellation?
Echoprobleme beheben
My voice system has echo problems. How do I implement the correct browser AEC pattern?
Architekturbewertung
Review my voice system code and ensure it follows the always-on microphone + browser AEC pattern without common anti-patterns

모범 사례

  • Immer Browser-Echokompensation mit echoCancellation: true in getUserMedia-Einschränkungen verwenden
  • Mikrofon während der gesamten Konversation eingeschaltet lassen - Track-State niemals umschalten
  • Gesamtes Audio durch Browser-Pipeline leiten mit HTMLAudioElement, um AEC aufrechtzuerhalten

피하기

  • Mikrofon-Track während der Konversation ein- und auszuschalten unterbricht AEC
  • Audio außerhalb des Browsers über AudioWorklet zu leiten umgeht die Echokompensation
  • Benutzerdefinierte Echokompensation implementieren erfindet das Rad neu und verursacht Probleme

자주 묻는 질문

Welche Browser unterstützen Browser-Echokompensation?
Alle gängigen Browser unterstützen WebRTC-Echokompensation, einschließlich Chrome, Safari, Firefox und Edge
Was ist die maximale Audio-Abtastrate für Sprache?
Sprachanwendungen verwenden typischerweise 24000 Hz Abtastrate für optimale Qualität und Leistung
Wie gehe ich mit Mikrofon-Berechtigungsfehlern um?
NotAllowedError für verweigerte Berechtigungen und NotFoundError abfangen, wenn kein Mikrofon verfügbar ist
Speichert diese Anleitung Audiodaten?
Nein, diese Anleitung bietet nur Orientierung. Die tatsächliche Audio-Verarbeitung hängt von Ihrer Implementierung ab
Warum produziert mein Sprachsystem Echo?
Echo tritt normalerweise auf, wenn Audio die Browser-Pipeline verlässt oder echoCancellation deaktiviert ist
Wie unterscheidet sich dies von anderen Sprachimplementierungen?
Dies folgt dem branchenüblichen Muster von ChatGPT, Zoom und Google Meet mit immer eingeschaltetem Mikrofon

개발자 세부 정보

파일 구조

📄 SKILL.md