voice-ai-engine-development
بناء محركات ذكاء اصطناعي صوتي في الوقت الفعلي
أنشئ محركات ذكاء اصطن��عي صوتي جاهزة للإنتاج مع خطوط أنابيب عمال غير متزامنة، ونسخ صوتي متدفق، ووكلاء LLM، وتوليف TTS. توفر هذه المهارة إرشادات كاملة لبناء مساعدين صوتيين مع معالجة المقاطعات ودعم مقدمي خدمات متعددين.
下载技能 ZIP
在 Claude 中上传
前往 设置 → 功能 → 技能 → 上传技能
开启并开始使用
测试它
正在使用“voice-ai-engine-development”。 إنشاء محرك ذكاء اصطناعي صوتي مع ثلاثة عمال: ناسخ وكاتب تركيب ومولف
预期结果:
هيكل مشروع Python مع عمال غير متزامنين يعتمدون على الطوابير، كل واحد يعالج الصوت/النص بشكل مستقل ويتواصل عبر asyncio.Queue
正在使用“voice-ai-engine-development”。 أرني كيفية معال��ة مقاطعات المستخدم في المحادثة الصوتية
预期结果:
كود يوضح غلاف InterruptibleEvent وطريقة get_message_up_to() لقطع كلام الذكاء الاصطناعي عندما يتحدث المستخدم
正在使用“voice-ai-engine-development”。 مقارنة Deepgram مقابل Google Speech للنسخ
预期结果:
جدول مقارنة يوضح زمن الانتقال والدقة ودعم اللغة واختلافات التكلفة بين المقدمين
安全审计
安全All 214 static findings are false positives. The skill is legitimate voice AI development documentation with example code. Detected patterns include: markdown code fences (not shell commands), legitimate audio data representation with \x00, standard network bindings (0.0.0.0), and placeholder configuration strings. No actual security issues found.
质量评分
你能构建什么
بناء مساعد صوتي
إنشاء مساعد صوتي في الوقت الفعلي يمكنه الاستماع والمعالجة والرد على استفسارات المستخدم بالكلام الطبيعي
تنفيذ روبوت محادثة صوتي
إضافة إمكانية المحادثة الصوتية إلى روبوتات الدردشة الموجودة لتطبيقات المكالمات الهاتفية أو الفيديو
إنشاء نظام صوتي متعدد المقدمين
بناء نظام صوتي مرن يمكنه التبديل بين مقدمي خدمات نسخ وتوليف صوتي مختلفين
试试这些提示
استخدم مهارة voice-ai-engine-development لإنشاء مساعد صوتي بسيط يستمع للكلام، ويحوله إلى نص، يعالجه بواسطة LLM، وينطق الرد
باستخدام voice-ai-engine-development، أرني كيفية إضافة معالجة المقاطعات بحيث يمكن للمستخدمين إيقاف الذكاء الاصطناعي في منتصف الرد
أريد استخدام مقدمي خدمات TTS متعددين (ElevenLabs و Google و OpenAI) في محرك الصوت الخاص بي. أرني تنفيذ نمط المصنع من voice-ai-engine-development
باستخدام أفضل الممارسات في voice-ai-engine-development، كيف يمكنني تحسين خط الأنابيب غير المتزامن لتقليل زمن الانتقال بين كلام المستخدم ورد الذكاء الاصطناعي؟
最佳实践
- استخدم طوابير عمال غير متزامنة لمراحل المعالجة المستقلة لتمكين التزامن الحقيقي
- خزن ردود LLM مؤقتًا قبل TTS لضمان مخرجات صوتية سلسة بدون قطع
- نفذ معالجة المقاطعات مبكرًا لأنها تؤثر على معمارية خط الأنابيب بالكامل
避免
- معالجة الصوت بشكل متزامن في خيط واحد (يحظر الأداء في الوقت الفعلي)
- إرسال أجزاء غير كاملة للنسخ (يسبب مشاكل في الدقة)
- بدء TTS قبل اكتمال رد LLM (يؤدي إلى كلام مقطوع)