技能 ux-waiting-audit

ux-waiting-audit

安全 ⚙️ 外部命令🌐 網路存取📁 檔案系統存取

Auditar estados de espera de aplicações web para melhorias de UX

Produtos de agentes de IA frequentemente têm longos tempos de espera que causam ansiedade e abandono do usuário. Esta skill audita como as aplicações lidam com operações de longa duração usando automação de navegador e gera relatórios abrangentes com recomendações priorizadas.

支援: Claude Codex Code(CC)
🥈 79 白銀
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「ux-waiting-audit」。 Audite a UX de espera em nossa ferramenta de pesquisa de IA ao gerar um relatório. A operação leva 45-60 segundos. Clique no botão 'Gerar Relatório'.

預期結果:

  • Pontuação Resumida: 4/10 categorias atendidas
  • Pontos fortes: Mostra resultados parciais em streaming, possui botão de cancelar
  • Lacunas críticas: Sem estimativa de tempo, sem porcentagem de progresso, apenas spinner
  • Ganhos rápidos: Adicionar texto '~50 segundos restantes', adicionar barra de progresso com porcentagem
  • Prioridade P1: Adicionar estimativa de tempo para reduzir ansiedade do usuário
  • Prioridade P2: Substituir spinner por barra de progresso para melhor visibilidade
  • Prioridade P3: Adicionar animação de comemoração ao concluir

安全審計

安全
v5 • 1/16/2026

Pure documentation and template skill containing JavaScript snippets for browser-based UX evaluation via Chrome MCP tools. All static findings are false positives: JavaScript template literals in docs were misidentified as Ruby shell backticks, documentation URLs flagged as hardcoded URLs, and template placeholders misclassified as cryptographic algorithms. No network calls, filesystem access, or external command execution in any executable code.

6
已掃描檔案
1,168
分析行數
3
發現項
5
審計總數

風險因素

⚙️ 外部命令 (68)
README.md:44 README.md:45 README.md:51 README.md:57 README.md:58 README.md:59 README.md:60 README.md:64-71 references/checklist.md:18-21 references/checklist.md:21-38 references/checklist.md:38-44 references/checklist.md:44-61 references/checklist.md:61-67 references/checklist.md:67-84 references/checklist.md:84-90 references/checklist.md:90-107 references/checklist.md:107-112 references/checklist.md:112-130 references/checklist.md:130-136 references/checklist.md:136-153 references/checklist.md:153-159 references/checklist.md:159-196 references/checklist.md:196-202 references/checklist.md:202-219 references/checklist.md:219-225 references/report-template.md:132-135 references/report-template.md:135-137 references/report-template.md:137-140 references/report-template.md:140-144 references/report-template.md:144-147 references/report-template.md:147-151 references/report-template.md:151-160 references/report-template.md:160-167 references/report-template.md:167-170 references/report-template.md:170-177 references/report-template.md:177-180 references/report-template.md:180-187 references/report-template.md:187-190 references/report-template.md:190-197 SKILL.md:14-16 SKILL.md:16-42 SKILL.md:42-56 SKILL.md:56-64 SKILL.md:64-75 SKILL.md:75-81 SKILL.md:81-93 SKILL.md:93-98 SKILL.md:98-110 SKILL.md:110-114 SKILL.md:114-118 SKILL.md:118-126 SKILL.md:126-133 SKILL.md:133-144 SKILL.md:144-152 SKILL.md:152-158 SKILL.md:158-181 SKILL.md:181-195 SKILL.md:195-207 SKILL.md:207-215 SKILL.md:215-224 SKILL.md:224-230 SKILL.md:230-235 SKILL.md:235-241 SKILL.md:241-246 SKILL.md:246-252 SKILL.md:252-282 SKILL.md:282-305 SKILL.md:305-308
🌐 網路存取 (5)
📁 檔案系統存取 (2)
審計者: claude 查看審計歷史 →

品質評分

77
架構
100
可維護性
83
內容
24
社群
100
安全
91
規範符合性

你能建構什麼

Avaliar UX de concorrentes

Auditar como produtos concorrentes lidam com operações de IA de longa duração e identificar melhores práticas.

Avaliar produto próprio

Avaliar a UX de espera da sua aplicação e obter recomendações de melhoria priorizadas.

Revisão antes do lançamento

Auditar novos recursos com operações longas antes do lançamento para identificar lacunas de UX antecipadamente.

試試這些提示

Solicitação de auditoria básica
Execute uma auditoria de UX de espera em [URL]. A operação que quero que você teste é [descreva a operação] que leva cerca de [X] segundos.
Auditoria detalhada com contexto
Audite a UX de espera em [URL]. Quero que você teste [operação específica]. Clique no botão [nome do botão] para iniciar. A duração esperada é de [X] segundos. Capture capturas de tela em T+0, T+10, T+30 e na conclusão.
Auditoria comparativa
Compare a UX de espera entre [URL1] e [URL2]. Teste a [operação específica] em ambos. Qual deles lida melhor com a espera e por quê? Use os critérios do checklist de 10 pontos.
Revisão antes e depois
Audite a UX de espera em [URL] para a operação [nome do recurso]. Gere um relatório detalhado com capturas de tela. Farei melhorias e então executarei outra auditoria para comparar os resultados.

最佳實務

  • Sempre capture a tela primeiro antes de tentar qualquer interação - inspeção visual revela o estado da UI que consultas DOM não conseguem
  • Peça aos usuários para acionar operações manualmente quando possível para evitar fluxos complexos de navegação e autenticação
  • Use o checklist de 10 pontos sistematicamente e forneça evidências específicas para cada decisão de pontuação

避免

  • Tentar múltiplos seletores quando consultas DOM falham em vez de capturar uma tela para entender o estado real da UI
  • Assumir que um spinner sozinho fornece boa UX - usuários precisam de indicadores de progresso, estimativas de tempo e resultados parciais
  • Auditar sem orientação do usuário quando autenticação complexa ou etapas específicas de navegação são necessárias

常見問題

Quais navegadores são suportados?
Chrome MCP é recomendado. A skill funciona com qualquer ferramenta de automação de navegador que forneça capacidades de screenshot, navigate e execute_javascript.
Quanto tempo deve durar a operação testada?
A skill é projetada para operações que duram 30+ segundos. Para operações mais rápidas, ajuste os intervalos de captura de tela para T+0, T+50% e conclusão.
Posso usar isto sem automação de navegador?
Uso parcial é possível. Você pode usar o checklist e modelos de relatório manualmente, mas capturas de tela e captura de estado DOM requerem ferramentas de automação de navegador.
Meus dados estão seguros durante a auditoria?
Sim. A skill é executada inteiramente no seu ambiente de navegador através de ferramentas de automação. Nenhum dado é enviado para servidores externos pela skill em si.
A auditoria travou ao procurar um elemento. O que devo fazer?
Pare de tentar seletores. Capture uma tela imediatamente e analise visualmente. Peça orientação ao usuário sobre a localização do botão ou acione a operação manualmente.
Como isto difere do Lighthouse ou outras ferramentas de auditoria?
Esta skill foca especificamente em UX de espera durante operações longas. Lighthouse audita performance mas não padrões de UX como indicadores de progresso, estimativas de tempo ou redução de ansiedade.

開發者詳情

檔案結構