技能 Azure.AI.VoiceLive (.NET)
🎙️

Azure.AI.VoiceLive (.NET)

安全

Erstellen Sie Echtzeit-Sprach-KI-Apps mit Azure VoiceLive

Entwickler haben Schwierigkeiten, Echtzeit-Sprach-KI-Funktionen mit ordnungsgemäßer Authentifizierung und Ereignisbehandlung zu implementieren. Diese Fähigkeit bietet vollständige .NET SDK-Dokumentation für Azure VoiceLive, einschließlich sicherer Authentifizierung, WebSocket-Sitzungsverwaltung und bidirektionaler Audio-Streaming-Muster.

支持: Claude Codex Code(CC)
🥉 72 青铜
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“Azure.AI.VoiceLive (.NET)”。 Ich möchte einen Sprachassistenten erstellen, der das Wetter überprüfen kann

预期结果:

  • VoiceLiveClient verbindet sich mit Azure AI-Endpunkt über DefaultAzureCredential
  • Session konfiguriert mit Sprach-Modalität und Wetter-Funktionsdefinition
  • Benutzer spricht Abfrage, Audio wird über WebSocket an Azure gesendet
  • Funktionsaufruf ausgelöst, Wetter-API-Antwort an Session zurückgesendet
  • Assistent antwortet mit gesprochenen Wetterinformationen

正在使用“Azure.AI.VoiceLive (.NET)”。 Wie behandle ich Fehler in VoiceLive-Sessions

预期结果:

  • SessionUpdateError-Ereignisse enthalten Fehlerdetails
  • Fehler bei abgebrochener Stornierung können sicher ignoriert werden
  • Authentifizierungsfehler erfordern eine Credential-Überprüfung
  • Netzwerkfehler sollten eine Session-Wiederverbindungslogik auslösen

安全审计

安全
v1 • 2/24/2026

Static analysis scanned 0 files with 0 lines and detected no security issues. This is a documentation-only skill (SKILL.md) providing guidance for using the Azure AI VoiceLive SDK. No executable code, network calls, or file system access patterns are present in the skill itself. The skill recommends secure authentication practices using DefaultAzureCredential.

0
已扫描文件
0
分析行数
0
发现项
1
审计总数
未发现安全问题
审计者: claude

质量评分

38
架构
100
可维护性
87
内容
50
社区
100
安全
74
规范符合性

你能构建什么

Sprachassistenten-Entwicklung

Erstellen Sie konversationelle Sprachassistenten, die Sprache in Echtzeit verarbeiten und mit synthetisiertem Audio und Text antworten.

Echtzeit-Sprach-zu-Sprach-Übersetzung

Erstellen Sie Anwendungen, die Spracheingaben erfassen, über KI-Modelle verarbeiten und übersetzte Sprache mit minimaler Latenz ausgeben.

Sprachaktivierte Chatbots

Integrieren Sie natürliche Sprachinteraktion in bestehende Chatbot-Systeme mit Azure AI VoiceLive für freihändige Benutzererfahrungen.

试试这些提示

Grundlegende Sprachsession-Einrichtung
Helfen Sie mir, eine grundlegende Azure VoiceLive-Session in .NET zu erstellen. Ich muss mich mit DefaultAzureCredential authentifizieren, die Session mit Text- und Audio-Modalitäten konfigurieren und eingehende Audio-Ereignisse behandeln.
Konfiguration von Funktionsaufrufen
Zeigen Sie mir, wie man Funktionsaufrufe in Azure VoiceLive definiert und behandelt. Ich möchte eine Wetterabfrage-Funktion hinzufügen, die der Sprachassistent während Gesprächen aufrufen kann.
Benutzerdefinierte Stimme und Sprecherkennung
Konfigurieren Sie Azure VoiceLive mit einer benutzerdefinierten neuronalen Stimme und semantischer Sprachaktivitätserkennung. Legen Sie geeignete Werte für Silence-Dauer und Schwellenwert für einen natürlichen Gesprächsfluss fest.
Vollständige Sprachassistenten-Implementierung
Erstellen Sie ein vollständiges Echtzeit-Sprachassistenten-Beispiel mit dem Azure VoiceLive SDK. Inklusive Authentifizierung, Sitzungsverwaltung, Ereignisbehandlungsschleife, Fehlerbehandlung und Funktionsaufrufen für externe APIs.

最佳实践

  • Verwenden Sie DefaultAzureCredential für die Authentifizierung anstelle von fest codierten API-Schlüsseln
  • Konfigurieren Sie sowohl Text- als auch Audio-Modalitäten für vollständige Sprachassistenten-Funktionalität
  • Wrap VoiceLiveSession immer in eine using-Anweisung für ordnungsgemäße Ressourcenfreigabe

避免

  • API-Schlüssel nicht im Quellcode hartkodieren - verwenden Sie Umgebungsvariablen oder verwaltete Identität
  • Fehlerbehandlung für SessionUpdateError-Ereignisse nicht weglassen
  • VoiceLiveSession nicht vergessen zu disposen - immer using-Anweisung verwenden

常见问题

Welche Azure-Ressourcen benötige ich, um das VoiceLive SDK zu verwenden
Sie benötigen eine Azure AI Services-Ressource mit aktiviertem VoiceLive. Weisen Sie die Rolle "Cognitive Services User" für die Authentifizierung mit verwalteter Identität zu, oder beziehen Sie einen API-Schlüssel über das Azure Portal.
Unterstützt VoiceLive benutzerdefinierte Stimmen
Ja, VoiceLive unterstützt Azure Standard-Stimmen, Azure HD-Stimmen und Azure benutzerdefinierte Stimmen. Verwenden Sie AzureStandardVoice für integrierte Stimmen oder AzureCustomVoice mit einer Endpunkt-ID für benutzerdefinierte neuronale Stimmen.
Welches Audioformat erfordert VoiceLive
VoiceLive verwendet PCM 16-Bit-Audio mit 24 kHz Abtastrate in Mono. Legen Sie InputAudioFormat und OutputAudioFormat in Ihrer Session-Konfiguration auf Pcm16 fest.
Kann VoiceLive mehrere Sprachen verarbeiten
Ja, VoiceLive unterstützt mehrere Sprachen über Sprachauswahl. Geben Sie Sprach-Regions-Sprachidentifikatoren wie en-US-AvaNeural an oder konfigurieren Sie benutzerdefinierte Stimmen für andere Sprachen.
Wie funktioniert Funktionsaufruf in VoiceLive
Definieren Sie VoiceLiveFunctionDefinition mit JSON-Schema-Parametern, fügen Sie sie zur Tools-Sammlung der Session-Optionen hinzu, und behandeln Sie SessionUpdateResponseFunctionCallArgumentsDone-Ereignisse, um Aufrufe zu verarbeiten und FunctionCallOutputItem-Antworten zu senden.
Was ist der Unterschied zwischen VoiceLive und Cognitive Services Speech SDK
VoiceLive bietet Echtzeit-bidirektionale Sprach-KI mit GPT-4o-Modellen für konversationelle Assistenten. Cognitive Services Speech SDK verarbeitet Spracherkennung und Text-zu-Sprache separat ohne integrierte KI-Schlussfolgerung.

开发者详情

文件结构

📄 SKILL.md