@azure/ai-voicelive (JavaScript/TypeScript)
Echtzeit-Sprach-KI-Apps mit Azure erstellen
Diese Skill bietet umfassende Dokumentation und Codebeispiele für die Entwicklung von Echtzeit-Sprach-KI-Anwendungen mit dem Azure AI Voice Live SDK. Es ermöglicht Entwicklern, Sprachassistenten, konversationelle KI und Sprach-zu-Sprach-Anwendungen in JavaScript und TypeScript zu erstellen.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“@azure/ai-voicelive (JavaScript/TypeScript)”。 Wie erstelle ich einen VoiceLiveClient mit DefaultAzureCredential?
预期结果:
import { DefaultAzureCredential } from '@azure/identity';
import { VoiceLiveClient } from '@azure/ai-voicelive';
const credential = new DefaultAzureCredential();
const endpoint = process.env.AZURE_VOICELIVE_ENDPOINT!;
const client = new VoiceLiveClient(endpoint, credential);
正在使用“@azure/ai-voicelive (JavaScript/TypeScript)”。 Welche Sprachoptionen sind verfügbar?
预期结果:
Azure Standard-Stimmen (en-US-AvaNeural, etc.), Azure Custom-Stimmen mit Endpoint-ID, Azure Personal-Stimmen für Sprecherklonung, und OpenAI-Stimmen (alloy, echo, shimmer).
正在使用“@azure/ai-voicelive (JavaScript/TypeScript)”。 Wie behandle ich Fehler?
预期结果:
Verwenden Sie den onError-Handler in Ihrer Subscription, um VoiceLiveConnectionError, VoiceLiveAuthenticationError und VoiceLiveProtocolError-Typen abzufangen.
安全审计
安全This is a documentation-only skill containing guidance for using the Azure AI Voice Live SDK. No executable code was detected. The skill provides usage examples for a legitimate Azure service. No security concerns identified.
质量评分
你能构建什么
Sprachassistenten erstellen
Erstellen Sie interaktive Sprachassistenten, die Sprache verstehen, mit KI-generiertem Audio antworten und mehrstufige Gespräche führen können.
Echtzeit-Transkription
Implementieren Sie Live-Sprache-zu-Text-Transkription mit niedriger Latenz für Kundenservice, Barrierefreiheit oder Dokumentationsanwendungen.
Konversationelle Chatbots
Erstellen Sie sprachfähige Chatbots, die mit Benutzern natürliche gesprochene Gespräche unter Verwendung von GPT-Modellen führen können.
试试这些提示
Zeigen Sie mir, wie ich einen grundlegenden VoiceLiveClient mit Microsoft Entra ID-Authentifizierung in TypeScript einrichten kann.
Konfigurieren Sie eine Sprachsitzung mit Text- und Audio-Modalitäten, benutzerdefinierten Anweisungen und Azure Semantic VAD Turn-Erkennung.
Implementieren Sie Event-Handler für Streaming-Audio-Delta, Text-Delta und Transkriptionsereignisse unter Verwendung des Subscription-Musters.
Richten Sie Funktionsaufruf-Tools in der Sitzungskonfiguration ein und behandeln Sie Funktionsaufruf-Ereignisse, um externe APIs zu integrieren.
最佳实践
- Verwenden Sie immer DefaultAzureCredential anstatt API-Schlüssel hart zu codieren, für sichere Authentifizierung
- Verwenden Sie Azure Semantic VAD für bessere Turn-Erkennung als grundlegende Server-VAD
- Bereinigen Sie Subscriptions, indem Sie subscription.close() aufrufen, wenn Sie fertig sind, um Speicherlecks zu verhindern
避免
- API-Schlüssel direkt im Quellcode hart codieren anstatt Umgebungsvariablen oder Entra ID zu verwenden
- Verbindungs-, Authentifizierungs- und Protokollfehler nicht separat behandeln
- Nur Audio-Modalität ohne Text festlegen - dies viele konversationelle Funktionen