技能 azure-aigateway
📦

azure-aigateway

安全 ⚙️ 外部命令🌐 网络访问

Configurer Azure AI Gateway avec APIM

Sécurisez et contrôlez les modèles IA, les serveurs MCP et les agents avec Azure API Management. Cette compétence aide à configurer la limitation de débit, le cache sémantique, la sécurité du contenu et l'équilibrage de charge pour les déploiements IA.

支持: Claude Codex Code(CC)
⚠️ 68
1

下载技能 ZIP

2

在 Claude 中上传

前往 设置 → 功能 → 技能 → 上传技能

3

开启并开始使用

测试它

正在使用“azure-aigateway”。 Configurez une passerelle Azure AI avec limitation de débit

预期结果:

  • Instance APIM créée avec SKU Basicv2
  • Limitation de débit de tokens configurée : 500 tokens/minute par abonnement
  • Cache sémantique ajouté avec seuil 0.8
  • URL de la passerelle : https://apim-aigateway.azure-api.net

正在使用“azure-aigateway”。 Ajoutez la sécurité du contenu à mon point de terminaison IA

预期结果:

  • Politique de sécurité du contenu configurée avec huit catégories de sévérité
  • Détection des tentatives d'évasion activée (shield-prompt=true)
  • Catégories bloquées : Haine, Sexuel, Auto-nuisance, Violence au seuil 4
  • Politique appliquée aux requêtes entrantes

安全审计

安全
v1 • 2/21/2026

This is an official Microsoft skill for configuring Azure API Management as an AI Gateway. All static findings are false positives: external_commands are legitimate Azure CLI commands for infrastructure deployment, network findings are Microsoft documentation URLs, and 'jailbreak' references describe a content safety security feature that detects/blocks jailbreak attempts, not a vulnerability.

5
已扫描文件
871
分析行数
2
发现项
1
审计总数

风险因素

⚙️ 外部命令 (1)
🌐 网络访问 (1)
审计者: claude

质量评分

36
架构
100
可维护性
85
内容
22
社区
100
安全
83
规范符合性

你能构建什么

Sécuriser l'accès aux modèles IA

Ajouter une limitation de débit, des quotas de tokens et une authentification aux déploiements Azure OpenAI ou AI Foundry

Réduire les coûts IA avec le cache

Implémenter le cache sémantique pour mettre en cache les prompts similaires et réduire les appels API aux services IA

Convertir des API en serveurs MCP

Exposer les API existantes comme serveurs Model Context Protocol pour la découverte d'outils par les agents IA

试试这些提示

Configuration rapide de passerelle
Configurez une passerelle Azure AI en utilisant API Management avec SKU Basicv2 dans le groupe de ressources rg-aigateway dans la région eastus2
Ajouter une limitation de débit
Ajoutez une limitation de débit de tokens à ma passerelle IA. Limitez à 500 tokens par minute par abonnement
Activer le cache sémantique
Configurez le cache sémantique sur mon instance API Management avec un seuil de similarité de 0.8 et un TTL de 120 secondes
Ajouter la sécurité du contenu
Ajoutez un filtrage de sécurité du contenu pour bloquer le contenu nuisible et détecter les tentatives d'évasion avec un seuil de sévérité de 4

最佳实践

  • Utiliser le SKU Basicv2 pour un déploiement plus rapide (5-10 min) et un coût réduit
  • Activer l'identité managée au lieu des clés API pour l'authentification backend
  • Configurer le cache sémantique avec un seuil de 0.7-0.8 pour des taux de succès optimaux
  • Utiliser azure-openai-emit-token-metric pour le suivi des coûts et la surveillance

避免

  • Utiliser le SKU Premium quand Basicv2 répond aux besoins (déploiement plus lent)
  • Coder en dur les clés API au lieu d'utiliser l'identité managée
  • Définir score-threshold trop élevé (>0.9) entraînant aucun succès de cache
  • Désactiver la surveillance de sécurité du contenu dans les déploiements IA en production

常见问题

Qu'est-ce qu'Azure AI Gateway ?
Azure AI Gateway est Azure API Management configuré pour sécuriser, observer et contrôler les modèles IA, les serveurs MCP et les agents. Il fournit une limitation de débit, un cache, une sécurité du contenu et un équilibrage de charge.
Quel SKU APIM dois-je utiliser ?
Utilisez le SKU Basicv2 pour les charges de travail de passerelle IA. Il prend en charge toutes les politiques de passerelle IA, se déploie plus rapidement (5-10 min) et coûte moins cher que Premium.
Comment le cache sémantique réduit-il les coûts ?
Le cache sémantique stocke les réponses IA pour les prompts similaires. Avec un seuil de similarité de 0.8, les requêtes similaires retournent les résultats en cache au lieu d'appeler le modèle IA, réduisant les coûts de 60-80%.
Puis-je convertir mon API en serveur MCP ?
Oui, le Patron 10 dans cette compétence montre comment convertir les API APIM existantes en serveurs MCP que les agents IA peuvent découvrir et utiliser comme outils.
Comment fonctionne la sécurité du contenu ?
La politique llm-content-safety filtre le contenu nuisible selon 8 catégories de sévérité. Activez shield-prompt pour détecter les tentatives d'évasion qui essaient de contourner les contrôles de sécurité IA.
Ai-je besoin d'une identité managée ?
Oui, l'identité managée est recommandée pour la production. Elle évite de stocker des clés API et fournit une authentification sécurisée aux services Azure AI comme Azure OpenAI.