Azure AI VoiceLive SDK for Java
Echtzeit-Sprachanwendungen mit Azure AI entwickeln
Entwickler benötigen eine Möglichkeit, Echtzeit-Sprachkonversationen in bidirektionaler Richtung in Java-Anwendungen zu integrieren. Dieser Skill bietet vollständige Codebeispiele und Best Practices für die Implementierung von Speech AI mit dem Azure AI VoiceLive SDK und WebSocket-Streaming.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "Azure AI VoiceLive SDK for Java". Create a VoiceLive client with DefaultAzureCredential
Erwartetes Ergebnis:
VoiceLiveAsyncClient client = new VoiceLiveClientBuilder()
.endpoint(System.getenv("AZURE_VOICELIVE_ENDPOINT"))
.credential(new DefaultAzureCredentialBuilder().build())
.buildAsyncClient();
Verwendung von "Azure AI VoiceLive SDK for Java". Configure turn detection for natural conversation
Erwartetes Ergebnis:
ServerVadTurnDetection turnDetection = new ServerVadTurnDetection()
.setThreshold(0.5)
.setPrefixPaddingMs(300)
.setSilenceDurationMs(500)
.setInterruptResponse(true)
.setAutoTruncate(true);
Sicherheitsaudit
SicherPrompt-only documentation skill containing code examples for Azure AI VoiceLive SDK. Static analysis found 0 files scanned with 0 potential security issues. Risk score: 0/100. No suspicious patterns detected. Skill provides legitimate documentation for Microsoft Azure service with no executable code.
Qualitätsbewertung
Was du bauen kannst
Kundenservice-Sprachbot
Erstellen Sie einen interaktiven Sprachassistenten für den Kundenservice, der Anfragen in Echtzeit mit natürlicher Sprache bearbeitet
Entwicklung von Barrierefreiheitstools
Erstellen Sie sprachaktivierte Anwendungen für Benutzer, die Sprachinteraktion gegenüber textbasierten Schnittstellen bevorzugen
IoT-Sprachsteuerungsschnittstelle
Implementieren Sie Sprachsteuerung für IoT-Geräte mit latenzarmer bidirektionaler Kommunikation
Probiere diese Prompts
Zeigen Sie mir, wie ich einen grundlegenden VoiceLiveAsyncClient in Java mit API-Schlüssel-Authentifizierung unter Verwendung des Azure AI VoiceLive SDK einrichte.
Wie konfiguriere ich VoiceLiveSessionOptions mit Turn-Erkennung, Stimmenauswahl und Audioformat-Einstellungen für einen natürlichen Gesprächsfluss?
Schreiben Sie Java-Code zur Handhabung von Sprachereignissen einschließlich Sprachstart/-stopp-Erkennung, Audio-Delta-Streaming und Fehlerbehandlung in der VoiceLive-Sitzung.
Zeigen Sie mir, wie ich Funktionsaufrufe mit VoiceLive integriere, um dem KI-Assistenten die Ausführung realer Aktionen wie Wetterabfragen während des Gesprächs zu ermöglichen.
Bewährte Verfahren
- Verwenden Sie DefaultAzureCredential anstelle von API-Schlüsseln für Produktionsbereitstellungen, um Azure Managed Identities zu nutzen
- Konfigurieren Sie ServerVadTurnDetection mit geeignetem Schwellenwert und Stille-Dauer, um Ihren Anwendungsfall für einen natürlichen Gesprächsfluss zu erreichen
- Implementieren Sie immer eine ordnungsgemäße Fehlerbehandlung und Wiederverbindungslogik für Produktions-Sprachanwendungen
Vermeiden
- Hartcodieren Sie keine API-Schlüssel im Quellcode - verwenden Sie stattdessen Umgebungsvariablen oder Azure Key Vault
- Vermeiden Sie blockierende Aufrufe in reaktiven Streams - verwenden Sie durchgehend nicht-blockierende Muster
- Überspringen Sie nicht die Audioformat-Validierung - stellen Sie sicher, dass die Eingabe 24kHz 16-Bit-PCM-Anforderungen entspricht
Häufig gestellte Fragen
Welches Audioformat erfordert Azure AI VoiceLive?
Wie authentifiziere ich mich mit Azure AI VoiceLive?
Welche Stimmen sind für Azure AI VoiceLive verfügbar?
Kann ich Funktionsaufrufe mit VoiceLive verwenden?
Wie funktioniert die Turn-Erkennung in VoiceLive?
Was ist der Unterschied zwischen TEXT- und AUDIO-Modalitäten?
Entwicklerdetails
Autor
sickn33Lizenz
MIT
Repository
https://github.com/sickn33/antigravity-awesome_skills/tree/main/skills/azure-ai-voicelive-javaRef
main
Dateistruktur
📄 SKILL.md