スキル firecrawl-download
📦

firecrawl-download

低リスク ⚙️ 外部コマンド🌐 ネットワークアクセス📁 ファイルシステムへのアクセス

Скачивание веб-сайтов как локальных файлов

Сохраняйте полные веб-сайты для офлайн-доступа без ручного постраничного скачивания. Firecrawl-download автоматизирует маппинг сайта и извлечение контента в организованные локальные каталоги.

対応: Claude Codex Code(CC)
📊 70 十分
1

スキルZIPをダウンロード

2

Claudeでアップロード

設定 → 機能 → スキル → スキルをアップロードへ移動

3

オンにして利用開始

テストする

「firecrawl-download」を使用しています。 Download https://docs.example.com with markdown format

期待される結果:

  • Created directory: .firecrawl/docs.example.com/
  • Downloaded 23 pages to .firecrawl/docs.example.com/
  • - index.md (Home page)
  • - getting-started.md
  • - api/reference.md
  • - guides/quickstart.md
  • ... (23 total files)

「firecrawl-download」を使用しています。 Download with screenshots enabled

期待される結果:

  • Created directory: .firecrawl/docs.example.com/
  • Downloaded 15 pages with screenshots:
  • - index.md + screenshot.png
  • - installation.md + screenshot.png
  • - configuration.md + screenshot.png
  • Total: 30 files (15 markdown + 15 images)

セキュリティ監査

低リスク
v1 • 4/10/2026

Static analysis flagged 34 patterns across external_commands (23), network (6), and filesystem (3) categories. All findings evaluated as FALSE POSITIVES: external_commands are documented CLI usage with allowed-tools declaration, network URLs are documentation examples (docs.example.com), and filesystem references are markdown relative links to other skill files. No malicious intent detected. Minor risk from legitimate Bash command execution and network access for web scraping.

1
スキャンされたファイル
70
解析された行数
6
検出結果
1
総監査数
低リスクの問題 (3)
External Command Execution via CLI
Skill executes firecrawl CLI commands via Bash. Commands are documented examples with user-provided URLs. Risk is mitigated by allowed-tools declaration restricting to firecrawl and npx firecrawl commands only.
Network Access for Web Scraping
Skill performs network requests to user-specified URLs for web scraping. This is expected behavior for a download tool but requires user trust in target URLs.
Filesystem Write Access
Skill writes scraped content to local .firecrawl/ directory. Creates nested directory structure for downloaded pages.

リスク要因

監査者: claude

品質スコア

38
アーキテクチャ
100
保守性
87
コンテンツ
41
コミュニティ
84
セキュリティ
91
仕様準拠

作れるもの

Архив документации

Скачайте полные сайты программной документации для офлайн-справки во время путешествий или в условиях низкой связности.

Конкурентная разведка

Сохраните страницы продуктов конкурентов и документацию по функциям для анализа и сравнения без повторных посещений сайта.

Резервное копирование при миграции контента

Создайте локальные резервные копии существующего контента сайта перед миграцией на новые платформы или редизайном.

これらのプロンプトを試す

Базовое скачивание веб-сайта
Download all pages from https://docs.example.com as markdown files to my local machine.
Скачивание со скриншотами
Download the Firecrawl docs at https://docs.firecrawl.dev with screenshots of each page, limit to 50 pages.
Скачивание отфильтрованной секции
Download only the SDK documentation from https://api.example.com/docs - include paths containing /sdks and /api, exclude all language translations.
Архив в мультиформате с фильтрами
Download https://knowledge.company.com including markdown, links, and full-page screenshots. Include only /features and /integration paths, exclude /internal and /draft. Wait for .content-loaded class before capturing.

ベストプラクティス

  • Всегда используйте флаг -y в автоматизированных рабочих процессах, чтобы пропустить интерактивные запросы подтверждения
  • Установите разумные ограничения на количество страниц с помощью --limit, чтобы избежать неожиданного потребления квоты
  • Используйте --exclude-paths для фильтрации несущественного контента, такого как переводы, черновики или внутренние страницы
  • Сначала протестируйте с небольшим лимитом, чтобы проверить конфигурацию перед большими скачиваниями

回避

  • Скачивание целых больших сайтов без предварительного установления лимита страниц
  • Использование полностраничных скриншотов для каждой страницы, когда достаточно миниатюр
  • Запуск скачиваний без флага -y в автоматизированных скриптах, вызывающий зависания
  • Включение чувствительных внутренних URL-адресов, которые не должны кэшироваться локально

よくある質問

В чем разница между firecrawl-download и firecrawl-crawl?
Скачивание сохраняет страницы как локальные файлы в организованных каталогах (markdown, скриншоты). Краулинг извлекает структурированные JSON-данные без создания локальных копий файлов. Используйте скачивание для офлайн-чтения, краулинг — для обработки данных.
Нужен ли мне API-ключ Firecrawl для использования этого навыка?
Да, firecrawl CLI требует API-ключ. Установите его через переменную окружения FIRECRAWL_API_KEY или настройте через процесс настройки CLI.
Могу ли я скачать страницы за логином или аутентификацией?
Базовое скачивание не может аутентифицироваться. Для аутентифицированных сайтов вам нужно настроить параметры аутентификации Firecrawl или использовать альтернативные подходы, такие как автоматизация браузера.
Как возобновить прерванное скачивание?
Скачивания не возобновляются автоматически. Повторно запустите ту же команду — существующие файлы будут перезаписаны. Используйте --limit и фильтры по путям, чтобы выбрать конкретные секции при частичном выполнении.
Какие форматы доступны для скачивания?
Поддерживаемые форматы включают markdown, HTML, links (извлеченные URL) и скриншоты (PNG). Используйте --format для указания нескольких форматов — каждая страница получает отдельные файлы для каждого формата.
Как исключить определенные страницы из скачивания?
Используйте --exclude-paths с шаблонами путей через запятую. Например: --exclude-paths '/blog,/changelog,/de,/fr' исключает блог, список изменений и языковые подкаталоги.

開発者の詳細

作成者

firecrawl

ライセンス

MIT

参照

main

ファイル構成

📄 SKILL.md