Habilidades firecrawl-crawl
📦

firecrawl-crawl

Seguro ⚙️ Comandos externos📁 Acceso al sistema de archivos

Vollständige Websites für die Massen-Extraktion von Inhalten crawlen

Die manuelle Extraktion von Inhalten aus hunderten von Seiten ist zeitaufwändig. Diese Fähigkeit automatisiert das Massen-Crawlen von Websites mit Tiefenbegrenzungen und Pfadfilterung, um genau die benötigten Inhalte zu extrahieren.

Soporta: Claude Codex Code(CC)
🥉 73 Bronce
1

Descargar el ZIP de la skill

2

Subir en Claude

Ve a Configuración → Capacidades → Skills → Subir skill

3

Activa y empieza a usar

Pruébalo

Usando "firecrawl-crawl". Alle Seiten unter /docs/ von example.com crawlen

Resultado esperado:

Erfolgreich 47 Seiten von example.com/docs/ gecrawlt

Beispiel-Seiten extrahiert:
- /docs/getting-started (2.340 Wörter)
- /docs/api-reference (4.120 Wörter)
- /docs/tutorials/basics (1.890 Wörter)

Ergebnisse gespeichert in: .firecrawl/crawl.json

Verwendete Credits: 47

Usando "firecrawl-crawl". Produktseiten von einem E-Commerce-Shop extrahieren

Resultado esperado:

Crawl abgeschlossen: 156 Seiten von example-store.com extrahiert

Gefundene Kategorien:
- /products/electronics (42 Seiten)
- /products/clothing (38 Seiten)
- /products/home (76 Seiten)

Ausgabe geschrieben in: products-crawl.json

Auditoría de seguridad

Seguro
v1 • 4/11/2026

Security review of firecrawl-crawl skill completed. Static analysis flagged multiple patterns (external_commands, filesystem path traversal, weak_crypto, network_reconnaissance) that were all evaluated as false positives. The flagged content consists of documentation examples in markdown code blocks and relative markdown links to other skill files, not actual security risks. The skill is a legitimate web scraping tool that uses the firecrawl CLI to crawl and extract content from websites.

1
Archivos escaneados
59
Líneas analizadas
4
hallazgos
1
Auditorías totales
Problemas de riesgo medio (2)
External Command Documentation Examples
Static analyzer flagged bash command examples in SKILL.md as 'external_commands'. These are documentation examples in markdown code blocks showing how to use the firecrawl CLI, not actual code execution. No command injection risk exists in this documentation file.
Filesystem Path Traversal in Markdown Links
Static analyzer flagged relative path references in markdown links as 'path traversal'. These are valid relative links to other skill documentation files (e.g., '../firecrawl-scrape/SKILL.md'), which is standard documentation cross-referencing, not filesystem access.

Factores de riesgo

⚙️ Comandos externos
No se registraron ubicaciones específicas
📁 Acceso al sistema de archivos
No se registraron ubicaciones específicas
Auditado por: claude

Puntuación de calidad

38
Arquitectura
100
Mantenibilidad
87
Contenido
50
Comunidad
95
Seguridad
91
Cumplimiento de la especificación

Lo que puedes crear

Dokumentations-Site-Migration

Alle Inhalte einer Dokumentations-Site vor der Migration oder Neugestaltung extrahieren. Verwenden Sie --include-paths /docs, um den Crawl nur auf Dokumentationsbereiche zu beschränken.

Wettbewerbsanalyse-Recherche

Massenhaft Produktseiten, Preisinformationen und Feature-Listen von Wettbewerber-Websites für Marktforschung und Analyse extrahieren.

Wissensdatenbank-Aufbau

Eine lokale Wissensdatenbank durch Crawlen und Extrahieren von Inhalten aus mehreren verwandten Websites, Wikis oder Ressourcensammlungen erstellen.

Prueba estos prompts

Einfacher Site-Crawl
Verwenden Sie firecrawl-crawl, um alle Seiten von [URL] zu extrahieren. Speichern Sie die Ergebnisse in crawl-results.json
Eingeschränkter Abschnitts-Crawl
Crawlen Sie [URL], extrahieren Sie aber nur Seiten unter dem /docs/ Pfad. Begrenzen Sie auf maximal 50 Seiten.
Tiefen-Crawl mit Tiefensteuerung
Crawlen Sie [URL] mit einer maximalen Tiefe von 3 Links. Verwenden Sie --include-paths /products /blog, um relevante Bereiche zu filtern.
Extraktion im großen Maßstab
Crawlen Sie [URL] und extrahieren Sie bis zu 200 Seiten aus dem /resources/ Bereich. Verwenden Sie --delay 500ms für respektvollen Umgang. Speichern Sie die Ausgabe in resources-crawl.json.

Mejores prácticas

  • Verwenden Sie immer --include-paths, um Crawls auf relevante Bereiche zu beschränken - crawlen Sie nicht ganze Sites, wenn Sie nur bestimmte Inhalte benötigen
  • Verwenden Sie --wait, um sicherzustellen, dass der Crawl vor der Verarbeitung der Ergebnisse abgeschlossen ist - ohne diese Option gibt der Befehl eine Job-ID für asynchrone Abfrage zurück
  • Überprüfen Sie die Credit-Nutzung mit 'firecrawl credit-usage' vor dem Start großer Crawls, um unerwartete Kosten zu vermeiden

Evitar

  • Crawlen Sie nicht ganze große Websites ohne Pfadfilterung - dies verschwendet Credits und generiert irrelevante Inhalte
  • Überspringen Sie --wait nicht bei zeitkritischen Aufgaben - asynchrone Job-IDs erfordern manuelle Abfrage und fügen Komplexität hinzu
  • Setzen Sie nicht extrem hohe Parallelität ohne Berücksichtigung von Ratenbegrenzungen - respektieren Sie Ziel-Website-Server

Preguntas frecuentes

Was ist der Unterschied zwischen Crawl und Scrape?
Scrape extrahiert eine einzelne Seite. Crawl entdeckt und extrahiert alle Seiten durch Folgen von Links, mit Tiefen- und Pfadsteuerungen.
Wie funktioniert die Preisgestaltung für Crawling?
Crawling verwendet Credits pro gecrawlter Seite. Überprüfen Sie Ihr Credit-Guthaben mit 'firecrawl credit-usage' vor großen Vorgängen.
Kann ich passwortgeschützte Inhalte crawlen?
Standard-Crawling unterstützt keine Authentifizierung. Für geschützte Inhalte verwenden Sie die API direkt mit entsprechender Authentifizierung.
Wie setze ich einen unterbrochenen Crawl fort?
Crawls sind job-basiert. Verwenden Sie 'firecrawl crawl <job-id>', um den Status eines laufenden oder unterbrochenen Crawls zu überprüfen.
Was passiert, wenn eine Site den Crawl blockiert?
Verwenden Sie --delay, um Zeit zwischen Anfragen hinzuzufügen. Wenn blockiert, stoppt der Crawl und meldet Teilergebnisse.
Welche Ausgabeformate werden unterstützt?
Ergebnisse werden standardmäßig als JSON gespeichert. Verwenden Sie --pretty für formatierte Ausgabe. Die -o Option gibt den Ausgabedateipfad an.

Detalles del desarrollador

Estructura de archivos

📄 SKILL.md