ai-product
Produktionsreife KI-Produkte entwickeln
Wandeln Sie KI-Demos in Produktionssysteme um. Dieses Skill vermittelt LLM-Integrationsmuster, RAG-Architektur und Validierungsstrategien, damit Sie KI-Funktionen entwickeln können, die im grossen Massstab funktionieren.
Die Skill-ZIP herunterladen
In Claude hochladen
Gehe zu Einstellungen → Fähigkeiten → Skills → Skill hochladen
Einschalten und loslegen
Teste es
Verwendung von "ai-product". Helfen Sie mir, einen Kundensupport-KI zu entwerfen, der alle Ausgaben validiert, bevor er auf Benutzer antwortet
Erwartetes Ergebnis:
Hier ist eine produktionsreife Architektur für Ihre Kundensupport-KI:
**Prompt-Struktur**: System-Prompt mit strengen Ausgabeformatierungsanweisungen, Benutzeranfrage im Template mit Validierungs-Hooks
**Validierungsschichten**:
1. Schema-Validierung - sicherstellen, dass die Antwort der erwarteten JSON-Struktur entspricht
2. Sicherheitsprüfung - auf schädliche Inhalte prüfen, bevor geantwortet wird
3. Tatsachenüberprüfung - Behauptungen mit der Wissensbasis abgleichen
4. Formatdurchsetzung - Antwortlänge und -struktur validieren
**Fehlerbehandlung**: Elegante Degradierung mit Rückfall auf einen menschlichen Agenten bei niedrigem Vertrauen
Verwendung von "ai-product". Mein LLM ist zu langsam. Wie kann ich die wahrgenommene Latenz verbessern?
Erwartetes Ergebnis:
Implementieren Sie Streaming mit diesen Techniken:
1. **Server-Sent Events (SSE)**: Token streamen, während sie generiert werden
2. **Progressives UI**: Skelett zuerst anzeigen, Inhalt beim Eintreffen ausfüllen
3. **Optimistische Updates**: Wahrscheinliche Antwort anzeigen, während KI generiert
4. **Chunked Generation**: Komplexe Antworten in kleinere Stücke aufteilen
Dies kann die wahrgenommene Latenz um 40-60% reduzieren, ohne schnellere Modell-Antwortzeiten.
Sicherheitsaudit
SicherStatic analysis detected 2 false positive patterns related to 'weak cryptographic algorithm' at lines 3 and 58. These are misidentified keywords ('patterns', 'architecture') in documentation text. This is a documentation-only skill with no executable code, network calls, scripts, filesystem access, or external commands. Safe for publication.
Erkannte Muster
Qualitätsbewertung
Was du bauen kannst
LLM-Anwendungen architekten
Entwerfen Sie Produktionssysteme, die LLMs sicher und zuverlässig mit korrekter Validierung und Fehlerbehandlung nutzen.
KI-Ausgaben validieren
Implementieren Sie Sicherheitssysteme und Validierungsschichten, um Halluzinationen und schädliche Inhalte zu erkennen, bevor sie an Benutzer ausgeliefert werden.
KI-Kosten optimieren
Reduzieren Sie die LLM-API-Kosten um 80% durch Prompt-Optimierung, Kontextmanagement und effiziente Token-Nutzung.
Probiere diese Prompts
Ich muss eine KI-gesteuerte Funktion entwickeln, die [Anwendungsfall beschreiben]. Helfen Sie mir, eine produktionsreife Architektur zu entwerfen, einschliesslich: 1) Wie Prompts für Zuverlässigkeit strukturiert werden sollen 2) Welche Validierungsschichten ich benötige 3) Wie Fehler elegant behandelt werden 4) Kostenoptimierungsstrategien
Überprüfen Sie diesen Prompt für die Produktionsbereitstellung: [Prompt einfügen]. Identifizieren Sie: 1) Potenzielle Fehlermodi 2) Fehlende Validierungsschritte 3) Optimierungsmöglichkeiten für das Kontextfenster 4) Kostenbedenken
Mein KI-System erzeugt Halluzinationen in [spezifischer Kontext]. Der aktuelle Prompt ist [Prompt einfügen]. Schlagen Sie Änderungen vor, um Halluzinationen zu reduzieren und gleichzeitig die Genauigkeit beizubehalten.
Ich brauche, dass mein LLM [gewünschtes Ausgabeformat beschreiben] zurückgibt. Helfen Sie mir: 1) Das Schema zu entwerfen 2) Den Prompt mit korrekten Anweisungen zu schreiben 3) Validierungslogik hinzuzufügen 4) Parsing-Fehler elegant zu behandeln
Bewährte Verfahren
- Behandeln Sie Prompts als Code: Versionskontrolle, Testen in CI/CD und Überprüfung von Änderungen durch Pull Requests
- Validieren Sie LLM-Ausgaben immer mit Schema-Validierung und Sicherheitsprüfungen, bevor Sie sie verwenden
- Bauen Sie Verteidigung in der Tiefe auf: Mehrere Validierungsschichten erfassen, was einzelne Checks übersehen
Vermeiden
- KI-Demos ohne Produktions-Hardening ausliefern - Benutzer werden bei Skalierung auf Fehler stossen
- Kontextfenster mit irrelevanten Daten vollstopfen - erhöht Kosten und reduziert Genauigkeit
- LLM-Ausgaben ohne Validierung vertrauen - Halluzinationen werden Benutzer in der Produktion erreichen