ai-product
Créer des Produits IA Prêts pour la Production
Transformez les démos IA en systèmes de production. Cette compétence enseigne les modèles d'intégration LLM, l'architecture RAG et les stratégies de validation pour vous permettre de déployer des fonctionnalités IA qui fonctionnent à grande échelle.
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「ai-product」。 Help me design a customer support AI that validates all outputs before responding to users
預期結果:
Voici une architecture prête pour la production pour votre IA de support client :
**Structure du Prompt** : Prompt système avec des instructions de format de sortie strictes, requête utilisateur dans un template avec des crochets de validation
**Couches de Validation** :
1. Validation de schéma - s'assurer que la réponse correspond à la structure JSON attendue
2. Vérification de sécurité - analyser le contenu dangereux avant de répondre
3. Vérification factuelle - recouper les affirmations avec la base de connaissances
4. Application du format - valider la longueur et la structure de la réponse
**Gestion des Erreurs** : Dégradation gracieuse avec repli vers un agent humain lorsque la confiance est faible
正在使用「ai-product」。 My LLM is too slow. How can I improve perceived latency?
預期結果:
Implémentez le streaming avec ces techniques :
1. **Server-Sent Events (SSE)** : Streamer les tokens au fur et à mesure qu'ils sont générés
2. **UI Progressive** : Afficher un squelette d'abord, remplir le contenu au fur et à mesure qu'il arrive
3. **Mises à Jour Optimistes** : Afficher la réponse probable pendant que l'IA génère
4. **Génération par Morceaux** : Diviser les réponses complexes en plus petits morceaux
Cela peut réduire la latence perçue de 40 à 60 % sans temps de réponse de modèle plus rapides.
安全審計
安全Static analysis detected 2 false positive patterns related to 'weak cryptographic algorithm' at lines 3 and 58. These are misidentified keywords ('patterns', 'architecture') in documentation text. This is a documentation-only skill with no executable code, network calls, scripts, filesystem access, or external commands. Safe for publication.
偵測到的模式
品質評分
你能建構什麼
Architecturer des Applications LLM
Concevoir des systèmes de production qui utilisent des LLM de manière sûre et fiable avec une validation appropriée et une gestion des erreurs.
Valider les Sorties IA
Implémenter des systèmes de sécurité et des couches de validation pour détecter les hallucinations et le contenu dangereux avant de les servir aux utilisateurs.
Optimiser les Coûts IA
Réduire les coûts d'API LLM de 80% grâce à l'optimisation des prompts, la gestion du contexte et une utilisation efficace des tokens.
試試這些提示
I need to build an AI-powered feature that [describe use case]. Help me design a production-ready architecture including: 1) How to structure prompts for reliability 2) What validation layers I need 3) How to handle failures gracefully 4) Cost optimization strategies
Review this prompt for production deployment: [insert prompt]. Identify: 1) Potential failure modes 2) Missing validation steps 3) Context window optimization opportunities 4) Cost concerns
My AI system is producing hallucinations in [specific context]. The current prompt is [insert prompt]. Suggest modifications to reduce hallucinations while maintaining accuracy.
I need my LLM to return [describe desired output format]. Help me: 1) Design the schema 2) Write the prompt with proper instructions 3) Add validation logic 4) Handle parsing failures gracefully
最佳實務
- Traitez les prompts comme du code : contrôle de version, test en CI/CD, et révisez les changements via des pull requests
- Validez toujours les sorties LLM avec une validation de schéma et des vérifications de sécurité avant de les utiliser
- Construisez une défense en profondeur : plusieurs couches de validation attrapent ce que les vérifications uniques manquent
避免
- Déployer des démos IA sans durcissement pour la production - les utilisateurs rencontreront des échecs à grande échelle
- Remplir les fenêtres de contexte avec des données non pertinentes - augmente les coûts et réduit la précision
- Faire confiance aux sorties LLM sans validation - les hallucinations atteindront les utilisateurs en production