스킬 data-processor
📊

data-processor

안전 🌐 네트워크 접근⚙️ 외부 명령어

Daten-Arrays effizient transformieren

Die manuelle Verarbeitung großer Datensätze erfordert viele Token und birgt Fehler. Diese Fähigkeit bietet wiederverwendbare Muster zum Filtern, Abbilden, Aggregieren und Transformieren von Array-Daten im Code, reduziert die Tokennutzung und sorgt für konsistente Ergebnisse.

지원: Claude Codex Code(CC)
⚠️ 68 나쁨
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"data-processor" 사용 중입니다. Filter this customer list to show only active accounts with revenue over 1000, sorted by total spend

예상 결과:

  • 23 passende Kunden gefunden
  • Gesamtumsatz der gefilterten Liste: $45,678
  • Top 3 Kunden nach Ausgaben: Customer A ($5,200), Customer B ($4,850), Customer C ($4,100)
  • Durchschnittlicher Umsatz pro Kunde: $1,986

보안 감사

안전
v5 • 1/16/2026

This is a pure documentation skill containing only markdown documentation and example code. No executable code, scripts, network calls, or filesystem operations exist. The skill describes data processing patterns for educational purposes only. All 33 static findings are false positives: the scanner misidentified markdown code block delimiters as shell commands and JavaScript array method names as cryptographic algorithms.

2
스캔된 파일
465
분석된 줄 수
2
발견 사항
5
총 감사 수
감사자: claude 감사 이력 보기 →

품질 점수

38
아키텍처
100
유지보수성
81
콘텐츠
22
커뮤니티
100
보안
83
사양 준수

만들 수 있는 것

Datensätze bereinigen und normalisieren

Rohdaten in standardisierte Formate transformieren, indem Zeichenfolgen getrimmt, Groß-/Kleinschreibung normalisiert und doppelte Einträge entfernt werden

Verkaufskennzahlen aggregieren

Summen, Durchschnitte und Anzahlen aus Transaktionsdaten berechnen, um zusammenfassende Berichte und KPIs zu erstellen

API-Antworten verarbeiten

API-Ergebnisse vor der Rückgabe an Clients filtern und sortieren, um die Payload-Größe zu reduzieren und Antwortzeiten zu verbessern

이 프롬프트를 사용해 보세요

Einfacher Filter
Filter this array to keep only items where status equals 'active'
Sortieren und begrenzen
Sort these records by createdDate in descending order and return the top 10
Metriken aggregieren
Calculate the total revenue and average order value from this sales data
Komplexe Pipeline
Clean the data by trimming strings, normalize email to lowercase, remove duplicates by email, filter for verified users, and sort by signup date

모범 사례

  • Validieren, dass die Eingabedaten ein Array sind, bevor verarbeitet wird, um Fehler früh zu erkennen
  • Statistiken zusammen mit den verarbeiteten Daten zurückgeben, um Einblick in die Transformationsergebnisse zu geben
  • Zwischenergebnisse auf die Festplatte speichern, wenn Datensätze größer als 10.000 Einträge verarbeitet werden

피하기

  • Gesamte Datensätze im Speicher verarbeiten ohne Paginierung oder Streaming
  • Transformationen anwenden, ohne auf null- oder undefined-Werte zu prüfen
  • Vollständige Datensätze zurückgeben, wenn nur Zusammenfassungsstatistiken benötigt werden, wodurch Token verschwendet werden

자주 묻는 질문

Welche Datenformate werden unterstützt?
Diese Fähigkeit arbeitet mit JavaScript-Arrays von Objekten. Jedes Objekt sollte konsistente Felder für Operationen wie filter, map und sort haben.
Welche Größenlimits gibt es für die Verarbeitung?
Die Verarbeitung von 1.000 Datensätzen dauert unter 50 ms, 10.000 Datensätze unter 200 ms und 100.000 Datensätze unter 2 Sekunden. Größere Datensätze können eine Verarbeitung in Blöcken erfordern.
Wie verketten ich mehrere Operationen?
Übergeben Sie mehrere Operationen in einem einzelnen Objekt. Die Fähigkeit wendet sie in der Reihenfolge an: filter, map, sort, aggregate, unique. Jede Operation arbeitet auf dem Ergebnis der vorherigen.
Sind meine Daten während der Verarbeitung sicher?
Diese Fähigkeit verarbeitet Daten nur im Speicher innerhalb Ihrer Sitzung. Es werden keine Daten an externe Dienste gesendet oder auf die Festplatte geschrieben, es sei denn, Sie speichern sie ausdrücklich.
Warum Code statt natürlicher Sprache verwenden?
Die Verarbeitung von 1.000 Datensätzen im Code verbraucht etwa 500 Token. Die Beschreibung derselben Operationen in natürlicher Sprache würde ungefähr 50.000 Token verbrauchen.
Wie verhält sich das im Vergleich zu SQL oder Datenbankabfragen?
Diese Fähigkeit ist ideal für In-Memory-Transformationen von Daten, die bereits aus Datenbanken oder APIs abgerufen wurden. Für großskalige Filterungen sind Datenbankabfragen effizienter.

개발자 세부 정보

파일 구조

📄 SKILL.md