Azure.AI.VoiceLive (.NET)
Erstellen Sie Echtzeit-Sprach-KI-Apps mit Azure VoiceLive
Entwickler haben Schwierigkeiten, Echtzeit-Sprach-KI-Funktionen mit ordnungsgemäßer Authentifizierung und Ereignisbehandlung zu implementieren. Diese Fähigkeit bietet vollständige .NET SDK-Dokumentation für Azure VoiceLive, einschließlich sicherer Authentifizierung, WebSocket-Sitzungsverwaltung und bidirektionaler Audio-Streaming-Muster.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“Azure.AI.VoiceLive (.NET)”。 Ich möchte einen Sprachassistenten erstellen, der das Wetter überprüfen kann
预期结果:
- VoiceLiveClient verbindet sich mit Azure AI-Endpunkt über DefaultAzureCredential
- Session konfiguriert mit Sprach-Modalität und Wetter-Funktionsdefinition
- Benutzer spricht Abfrage, Audio wird über WebSocket an Azure gesendet
- Funktionsaufruf ausgelöst, Wetter-API-Antwort an Session zurückgesendet
- Assistent antwortet mit gesprochenen Wetterinformationen
正在使用“Azure.AI.VoiceLive (.NET)”。 Wie behandle ich Fehler in VoiceLive-Sessions
预期结果:
- SessionUpdateError-Ereignisse enthalten Fehlerdetails
- Fehler bei abgebrochener Stornierung können sicher ignoriert werden
- Authentifizierungsfehler erfordern eine Credential-Überprüfung
- Netzwerkfehler sollten eine Session-Wiederverbindungslogik auslösen
安全审计
安全Static analysis scanned 0 files with 0 lines and detected no security issues. This is a documentation-only skill (SKILL.md) providing guidance for using the Azure AI VoiceLive SDK. No executable code, network calls, or file system access patterns are present in the skill itself. The skill recommends secure authentication practices using DefaultAzureCredential.
质量评分
你能构建什么
Sprachassistenten-Entwicklung
Erstellen Sie konversationelle Sprachassistenten, die Sprache in Echtzeit verarbeiten und mit synthetisiertem Audio und Text antworten.
Echtzeit-Sprach-zu-Sprach-Übersetzung
Erstellen Sie Anwendungen, die Spracheingaben erfassen, über KI-Modelle verarbeiten und übersetzte Sprache mit minimaler Latenz ausgeben.
Sprachaktivierte Chatbots
Integrieren Sie natürliche Sprachinteraktion in bestehende Chatbot-Systeme mit Azure AI VoiceLive für freihändige Benutzererfahrungen.
试试这些提示
Helfen Sie mir, eine grundlegende Azure VoiceLive-Session in .NET zu erstellen. Ich muss mich mit DefaultAzureCredential authentifizieren, die Session mit Text- und Audio-Modalitäten konfigurieren und eingehende Audio-Ereignisse behandeln.
Zeigen Sie mir, wie man Funktionsaufrufe in Azure VoiceLive definiert und behandelt. Ich möchte eine Wetterabfrage-Funktion hinzufügen, die der Sprachassistent während Gesprächen aufrufen kann.
Konfigurieren Sie Azure VoiceLive mit einer benutzerdefinierten neuronalen Stimme und semantischer Sprachaktivitätserkennung. Legen Sie geeignete Werte für Silence-Dauer und Schwellenwert für einen natürlichen Gesprächsfluss fest.
Erstellen Sie ein vollständiges Echtzeit-Sprachassistenten-Beispiel mit dem Azure VoiceLive SDK. Inklusive Authentifizierung, Sitzungsverwaltung, Ereignisbehandlungsschleife, Fehlerbehandlung und Funktionsaufrufen für externe APIs.
最佳实践
- Verwenden Sie DefaultAzureCredential für die Authentifizierung anstelle von fest codierten API-Schlüsseln
- Konfigurieren Sie sowohl Text- als auch Audio-Modalitäten für vollständige Sprachassistenten-Funktionalität
- Wrap VoiceLiveSession immer in eine using-Anweisung für ordnungsgemäße Ressourcenfreigabe
避免
- API-Schlüssel nicht im Quellcode hartkodieren - verwenden Sie Umgebungsvariablen oder verwaltete Identität
- Fehlerbehandlung für SessionUpdateError-Ereignisse nicht weglassen
- VoiceLiveSession nicht vergessen zu disposen - immer using-Anweisung verwenden