ux-waiting-audit
Web-App-Wartezustände auf UX-Verbesserungen prüfen
KI-Agent-Produkte haben oft lange Wartezeiten, die zu Benutzerängsten und Abbruch führen. Dieses Skill prüft, wie Anwendungen langlaufende Operationen mit Browser-Automatisierung handhaben, und erstellt umfassende Berichte mit priorisierten Empfehlungen.
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「ux-waiting-audit」。 Prüfe die Warte-UX unseres KI-Forschungstools bei der Berichtserstellung. Die Operation dauert 45-60 Sekunden. Klicke auf den Button 'Bericht erstellen'.
預期結果:
- Zusammenfassende Bewertung: 4/10 Kategorien adressiert
- Stärken: Zeigt partielle Ergebnisse beim Streamen, hat Abbruch-Button
- Kritische Lücken: Keine Zeitschätzung, kein Fortschrittsprozent, nur ein Ladesymbol
- Schnelle Erfolge: Text '~50 Sekunden verbleibend' hinzufügen, Fortschrittsbalken mit Prozentangabe
- P1 Priorität: Zeitschätzung hinzufügen, um Benutzerangst zu reduzieren
- P2 Priorität: Ladesymbol durch Fortschrittsbalken ersetzen für bessere Sichtbarkeit
- P3 Priorität: Abschluss-Feieranimation hinzufügen
安全審計
安全Pure documentation and template skill containing JavaScript snippets for browser-based UX evaluation via Chrome MCP tools. All static findings are false positives: JavaScript template literals in docs were misidentified as Ruby shell backticks, documentation URLs flagged as hardcoded URLs, and template placeholders misclassified as cryptographic algorithms. No network calls, filesystem access, or external command execution in any executable code.
風險因素
⚙️ 外部命令 (68)
📁 檔案系統存取 (2)
品質評分
你能建構什麼
Konkurrenz-UX bewerten
Prüfen, wie Konkurrenzprodukte langlaufende KI-Operationen handhaben, und Best Practices identifizieren.
Eigenes Produkt bewerten
Die Warte-UX der eigenen Anwendung bewerten und priorisierte Verbesserungsempfehlungen erhalten.
Prüfung vor Launch
Neue Features mit langen Operationen vor der Veröffentlichung prüfen, um UX-Lücken frühzeitig zu erkennen.
試試這些提示
Führe ein UX-Warteaudit auf [URL] durch. Die Operation, die ich testen möchte, ist [Operation beschreiben], die etwa [X] Sekunden dauert.
Prüfe die Warte-UX auf [URL]. Ich möchte, dass du [spezifische Operation] testest. Klicke auf den Button [Button-Name], um zu starten. Erwartete Dauer ist [X] Sekunden. Nimm Screenshots bei T+0, T+10, T+30 und bei Abschluss auf.
Vergleiche die Warte-UX zwischen [URL1] und [URL2]. Teste die [spezifische Operation] auf beiden. Welcher handhabt das Warten besser und warum? Verwende die 10-Punkte-Checklisten-Kriterien.
Prüfe die Warte-UX auf [URL] für die Operation [Feature-Name]. Erstelle einen detaillierten Bericht mit Screenshots. Ich werde Verbesserungen vornehmen und dann ein weiteres Audit durchführen, um die Ergebnisse zu vergleichen.
最佳實務
- Immer zuerst einen Screenshot machen, bevor du versuchst zu interagieren - visuelle Inspektion zeigt den UI-Zustand, den DOM-Abfragen nicht können
- Benutzer bitten, Operationen manuell auszulösen, wenn möglich, um komplexe Navigations- und Authentifizierungsflüsse zu vermeiden
- Die 10-Punkte-Checkliste systematisch verwenden und spezifische Beweise für jede Bewertungsentscheidung liefern
避免
- Mehrere Selektoren versuchen, wenn DOM-Abfragen fehlschlagen, anstatt einen Screenshot zu machen, um den tatsächlichen UI-Zustand zu verstehen
- Annehmen, dass ein Ladesymbol allein gute UX bietet - Benutzer brauchen Fortschrittsindikatoren, Zeitschätzungen und partielle Ergebnisse
- Ohne Benutzeranleitung prüfen, wenn komplexe Authentifizierung oder spezifische Navigationsschritte erforderlich sind
常見問題
Welche Browser werden unterstützt?
Wie lange sollte die getestete Operation dauern?
Kann ich dies ohne Browser-Automatisierung nutzen?
Sind meine Daten während des Audits sicher?
Das Audit bleibt beim Suchen eines Elements hängen. Was soll ich tun?
Wie unterscheidet sich dies von Lighthouse oder anderen Prüfungswerkzeugen?
開發者詳情
檔案結構