技能 ux-waiting-audit

ux-waiting-audit

安全 ⚙️ 外部命令🌐 網路存取📁 檔案系統存取

Web-App-Wartezustände auf UX-Verbesserungen prüfen

KI-Agent-Produkte haben oft lange Wartezeiten, die zu Benutzerängsten und Abbruch führen. Dieses Skill prüft, wie Anwendungen langlaufende Operationen mit Browser-Automatisierung handhaben, und erstellt umfassende Berichte mit priorisierten Empfehlungen.

支援: Claude Codex Code(CC)
🥈 79 白銀
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「ux-waiting-audit」。 Prüfe die Warte-UX unseres KI-Forschungstools bei der Berichtserstellung. Die Operation dauert 45-60 Sekunden. Klicke auf den Button 'Bericht erstellen'.

預期結果:

  • Zusammenfassende Bewertung: 4/10 Kategorien adressiert
  • Stärken: Zeigt partielle Ergebnisse beim Streamen, hat Abbruch-Button
  • Kritische Lücken: Keine Zeitschätzung, kein Fortschrittsprozent, nur ein Ladesymbol
  • Schnelle Erfolge: Text '~50 Sekunden verbleibend' hinzufügen, Fortschrittsbalken mit Prozentangabe
  • P1 Priorität: Zeitschätzung hinzufügen, um Benutzerangst zu reduzieren
  • P2 Priorität: Ladesymbol durch Fortschrittsbalken ersetzen für bessere Sichtbarkeit
  • P3 Priorität: Abschluss-Feieranimation hinzufügen

安全審計

安全
v5 • 1/16/2026

Pure documentation and template skill containing JavaScript snippets for browser-based UX evaluation via Chrome MCP tools. All static findings are false positives: JavaScript template literals in docs were misidentified as Ruby shell backticks, documentation URLs flagged as hardcoded URLs, and template placeholders misclassified as cryptographic algorithms. No network calls, filesystem access, or external command execution in any executable code.

6
已掃描檔案
1,168
分析行數
3
發現項
5
審計總數

風險因素

⚙️ 外部命令 (68)
README.md:44 README.md:45 README.md:51 README.md:57 README.md:58 README.md:59 README.md:60 README.md:64-71 references/checklist.md:18-21 references/checklist.md:21-38 references/checklist.md:38-44 references/checklist.md:44-61 references/checklist.md:61-67 references/checklist.md:67-84 references/checklist.md:84-90 references/checklist.md:90-107 references/checklist.md:107-112 references/checklist.md:112-130 references/checklist.md:130-136 references/checklist.md:136-153 references/checklist.md:153-159 references/checklist.md:159-196 references/checklist.md:196-202 references/checklist.md:202-219 references/checklist.md:219-225 references/report-template.md:132-135 references/report-template.md:135-137 references/report-template.md:137-140 references/report-template.md:140-144 references/report-template.md:144-147 references/report-template.md:147-151 references/report-template.md:151-160 references/report-template.md:160-167 references/report-template.md:167-170 references/report-template.md:170-177 references/report-template.md:177-180 references/report-template.md:180-187 references/report-template.md:187-190 references/report-template.md:190-197 SKILL.md:14-16 SKILL.md:16-42 SKILL.md:42-56 SKILL.md:56-64 SKILL.md:64-75 SKILL.md:75-81 SKILL.md:81-93 SKILL.md:93-98 SKILL.md:98-110 SKILL.md:110-114 SKILL.md:114-118 SKILL.md:118-126 SKILL.md:126-133 SKILL.md:133-144 SKILL.md:144-152 SKILL.md:152-158 SKILL.md:158-181 SKILL.md:181-195 SKILL.md:195-207 SKILL.md:207-215 SKILL.md:215-224 SKILL.md:224-230 SKILL.md:230-235 SKILL.md:235-241 SKILL.md:241-246 SKILL.md:246-252 SKILL.md:252-282 SKILL.md:282-305 SKILL.md:305-308
🌐 網路存取 (5)
📁 檔案系統存取 (2)
審計者: claude 查看審計歷史 →

品質評分

77
架構
100
可維護性
83
內容
24
社群
100
安全
91
規範符合性

你能建構什麼

Konkurrenz-UX bewerten

Prüfen, wie Konkurrenzprodukte langlaufende KI-Operationen handhaben, und Best Practices identifizieren.

Eigenes Produkt bewerten

Die Warte-UX der eigenen Anwendung bewerten und priorisierte Verbesserungsempfehlungen erhalten.

Prüfung vor Launch

Neue Features mit langen Operationen vor der Veröffentlichung prüfen, um UX-Lücken frühzeitig zu erkennen.

試試這些提示

Grundlegende Audit-Anfrage
Führe ein UX-Warteaudit auf [URL] durch. Die Operation, die ich testen möchte, ist [Operation beschreiben], die etwa [X] Sekunden dauert.
Detailliertes Audit mit Kontext
Prüfe die Warte-UX auf [URL]. Ich möchte, dass du [spezifische Operation] testest. Klicke auf den Button [Button-Name], um zu starten. Erwartete Dauer ist [X] Sekunden. Nimm Screenshots bei T+0, T+10, T+30 und bei Abschluss auf.
Vergleichendes Audit
Vergleiche die Warte-UX zwischen [URL1] und [URL2]. Teste die [spezifische Operation] auf beiden. Welcher handhabt das Warten besser und warum? Verwende die 10-Punkte-Checklisten-Kriterien.
Vorher-Nachher-Prüfung
Prüfe die Warte-UX auf [URL] für die Operation [Feature-Name]. Erstelle einen detaillierten Bericht mit Screenshots. Ich werde Verbesserungen vornehmen und dann ein weiteres Audit durchführen, um die Ergebnisse zu vergleichen.

最佳實務

  • Immer zuerst einen Screenshot machen, bevor du versuchst zu interagieren - visuelle Inspektion zeigt den UI-Zustand, den DOM-Abfragen nicht können
  • Benutzer bitten, Operationen manuell auszulösen, wenn möglich, um komplexe Navigations- und Authentifizierungsflüsse zu vermeiden
  • Die 10-Punkte-Checkliste systematisch verwenden und spezifische Beweise für jede Bewertungsentscheidung liefern

避免

  • Mehrere Selektoren versuchen, wenn DOM-Abfragen fehlschlagen, anstatt einen Screenshot zu machen, um den tatsächlichen UI-Zustand zu verstehen
  • Annehmen, dass ein Ladesymbol allein gute UX bietet - Benutzer brauchen Fortschrittsindikatoren, Zeitschätzungen und partielle Ergebnisse
  • Ohne Benutzeranleitung prüfen, wenn komplexe Authentifizierung oder spezifische Navigationsschritte erforderlich sind

常見問題

Welche Browser werden unterstützt?
Chrome MCP wird empfohlen. Das Skill funktioniert mit jedem Browser-Automatisierungswerkzeug, das Screenshot-, Navigate- und execute_javascript-Funktionen bietet.
Wie lange sollte die getestete Operation dauern?
Das Skill ist für Operationen konzipiert, die 30+ Sekunden dauern. Für schnellere Operationen die Screenshot-Intervalle auf T+0, T+50% und Abschluss anpassen.
Kann ich dies ohne Browser-Automatisierung nutzen?
Teilweise Nutzung ist möglich. Du kannst die Checkliste und Berichtsvorlagen manuell verwenden, aber Screenshots und DOM-Statuserfassung erfordern Browser-Automatisierungswerkzeuge.
Sind meine Daten während des Audits sicher?
Ja. Das Skill läuft vollständig in deiner Browser-Umgebung durch Automatisierungswerkzeuge. Es werden keine Daten an externe Server gesendet.
Das Audit bleibt beim Suchen eines Elements hängen. Was soll ich tun?
Aufhören, Selektoren zu versuchen. Sofort einen Screenshot machen und visuell analysieren. Den Benutzer nach Anleitung zur Button-Position fragen oder die Operation manuell auslösen.
Wie unterscheidet sich dies von Lighthouse oder anderen Prüfungswerkzeugen?
Dieses Skill konzentriert sich spezifisch auf Warte-UX während langlaufender Operationen. Lighthouse prüft Performance, aber nicht UX-Muster wie Fortschrittsindikatoren, Zeitschätzungen oder Angstreduzierung.

開發者詳情

檔案結構