ai-product
Produktionsreife KI-Produkte entwickeln
Wandeln Sie KI-Demos in Produktionssysteme um. Dieses Skill vermittelt LLM-Integrationsmuster, RAG-Architektur und Validierungsstrategien, damit Sie KI-Funktionen entwickeln können, die im grossen Massstab funktionieren.
스킬 ZIP 다운로드
Claude에서 업로드
설정 → 기능 → 스킬 → 스킬 업로드로 이동
토글을 켜고 사용 시작
테스트해 보기
"ai-product" 사용 중입니다. Helfen Sie mir, einen Kundensupport-KI zu entwerfen, der alle Ausgaben validiert, bevor er auf Benutzer antwortet
예상 결과:
Hier ist eine produktionsreife Architektur für Ihre Kundensupport-KI:
**Prompt-Struktur**: System-Prompt mit strengen Ausgabeformatierungsanweisungen, Benutzeranfrage im Template mit Validierungs-Hooks
**Validierungsschichten**:
1. Schema-Validierung - sicherstellen, dass die Antwort der erwarteten JSON-Struktur entspricht
2. Sicherheitsprüfung - auf schädliche Inhalte prüfen, bevor geantwortet wird
3. Tatsachenüberprüfung - Behauptungen mit der Wissensbasis abgleichen
4. Formatdurchsetzung - Antwortlänge und -struktur validieren
**Fehlerbehandlung**: Elegante Degradierung mit Rückfall auf einen menschlichen Agenten bei niedrigem Vertrauen
"ai-product" 사용 중입니다. Mein LLM ist zu langsam. Wie kann ich die wahrgenommene Latenz verbessern?
예상 결과:
Implementieren Sie Streaming mit diesen Techniken:
1. **Server-Sent Events (SSE)**: Token streamen, während sie generiert werden
2. **Progressives UI**: Skelett zuerst anzeigen, Inhalt beim Eintreffen ausfüllen
3. **Optimistische Updates**: Wahrscheinliche Antwort anzeigen, während KI generiert
4. **Chunked Generation**: Komplexe Antworten in kleinere Stücke aufteilen
Dies kann die wahrgenommene Latenz um 40-60% reduzieren, ohne schnellere Modell-Antwortzeiten.
보안 감사
안전Static analysis detected 2 false positive patterns related to 'weak cryptographic algorithm' at lines 3 and 58. These are misidentified keywords ('patterns', 'architecture') in documentation text. This is a documentation-only skill with no executable code, network calls, scripts, filesystem access, or external commands. Safe for publication.
감지된 패턴
품질 점수
만들 수 있는 것
LLM-Anwendungen architekten
Entwerfen Sie Produktionssysteme, die LLMs sicher und zuverlässig mit korrekter Validierung und Fehlerbehandlung nutzen.
KI-Ausgaben validieren
Implementieren Sie Sicherheitssysteme und Validierungsschichten, um Halluzinationen und schädliche Inhalte zu erkennen, bevor sie an Benutzer ausgeliefert werden.
KI-Kosten optimieren
Reduzieren Sie die LLM-API-Kosten um 80% durch Prompt-Optimierung, Kontextmanagement und effiziente Token-Nutzung.
이 프롬프트를 사용해 보세요
Ich muss eine KI-gesteuerte Funktion entwickeln, die [Anwendungsfall beschreiben]. Helfen Sie mir, eine produktionsreife Architektur zu entwerfen, einschliesslich: 1) Wie Prompts für Zuverlässigkeit strukturiert werden sollen 2) Welche Validierungsschichten ich benötige 3) Wie Fehler elegant behandelt werden 4) Kostenoptimierungsstrategien
Überprüfen Sie diesen Prompt für die Produktionsbereitstellung: [Prompt einfügen]. Identifizieren Sie: 1) Potenzielle Fehlermodi 2) Fehlende Validierungsschritte 3) Optimierungsmöglichkeiten für das Kontextfenster 4) Kostenbedenken
Mein KI-System erzeugt Halluzinationen in [spezifischer Kontext]. Der aktuelle Prompt ist [Prompt einfügen]. Schlagen Sie Änderungen vor, um Halluzinationen zu reduzieren und gleichzeitig die Genauigkeit beizubehalten.
Ich brauche, dass mein LLM [gewünschtes Ausgabeformat beschreiben] zurückgibt. Helfen Sie mir: 1) Das Schema zu entwerfen 2) Den Prompt mit korrekten Anweisungen zu schreiben 3) Validierungslogik hinzuzufügen 4) Parsing-Fehler elegant zu behandeln
모범 사례
- Behandeln Sie Prompts als Code: Versionskontrolle, Testen in CI/CD und Überprüfung von Änderungen durch Pull Requests
- Validieren Sie LLM-Ausgaben immer mit Schema-Validierung und Sicherheitsprüfungen, bevor Sie sie verwenden
- Bauen Sie Verteidigung in der Tiefe auf: Mehrere Validierungsschichten erfassen, was einzelne Checks übersehen
피하기
- KI-Demos ohne Produktions-Hardening ausliefern - Benutzer werden bei Skalierung auf Fehler stossen
- Kontextfenster mit irrelevanten Daten vollstopfen - erhöht Kosten und reduziert Genauigkeit
- LLM-Ausgaben ohne Validierung vertrauen - Halluzinationen werden Benutzer in der Produktion erreichen