스킬 fetch-url
🔗

fetch-url

낮은 위험 ⚡ 스크립트 포함🌐 네트워크 접근📁 파일 시스템 액세스⚙️ 외부 명령어

擷取並渲染網頁內容

網頁包含大量的 HTML,會浪費 token。這個技能使用無頭瀏覽器渲染網址、提取乾淨的文字,並輸出為 Markdown 或其他格式。非常適合將文件和文章轉換為高效的 AI 輸入。

지원: Claude Codex Code(CC)
⚠️ 68 나쁨
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"fetch-url" 사용 중입니다. Fetch the Python documentation homepage as markdown

예상 결과:

  • # Python Documentation
  •  
  • ## Getting Started
  •  
  • Python is a programming language that lets you work quickly...
  • [Saved output to stdout - 2.3KB of Markdown content]
  • Extracted 15 headings, 84 paragraphs, and 23 links from https://docs.python.org/3/

"fetch-url" 사용 중입니다. Convert a blog post to structured JSON

예상 결과:

  • {
  • "title": "My Blog Post",
  • "author": "Jane Smith",
  • "date": "2024-01-15",
  • "content": "The article body goes here..."
  • }
  • [Saved to output file]
  • Extracted structured data from https://blog.example.com/post

"fetch-url" 사용 중입니다. Extract API documentation to text file

예상 결과:

  • API Reference Documentation
  • ===========================
  •  
  • ## Authentication
  •  
  • All API requests require...
  • [Saved to ./api-reference.txt - 15KB]
  • Extracted 42 endpoints, 156 parameters, and 89 examples

보안 감사

낮은 위험
v5 • 1/17/2026

This is a legitimate web scraping skill that renders URLs using Playwright and extracts content via trafilatura. All detected patterns are consistent with the stated purpose. The network requests (page.goto) are core functionality for web scraping. The browser path detection (lines 33-52) is a performance optimization, not reconnaissance. All 10 HIGH severity 'weak cryptographic algorithm' findings are false positives - no cryptographic code exists in the codebase. The MEDIUM 'external_commands' findings are documentation examples, not actual command execution. Input validation (line 104) restricts URLs to http/https only.

3
스캔된 파일
411
분석된 줄 수
4
발견 사항
5
총 감사 수

위험 요인

⚡ 스크립트 포함 (1)
🌐 네트워크 접근 (1)
📁 파일 시스템 액세스 (1)
⚙️ 외부 명령어 (1)
감사자: claude 감사 이력 보기 →

품질 점수

45
아키텍처
100
유지보수성
85
콘텐츠
21
커뮤니티
90
보안
83
사양 준수

만들 수 있는 것

轉換線上文件

將網頁文件轉換為本機 Markdown 檔案,以便離線存取和更輕鬆的編輯。

最佳化 AI 上下文

將文章和指南轉換為 Markdown,以在 token 限制內最大化有用內容。

封存網頁內容

從多個網址提取內容並以結構化格式儲存以便分析。

이 프롬프트를 사용해 보세요

基本擷取
Use fetch-url to render https://example.com/docs/getting-started and output as markdown
儲存至檔案
Use fetch-url to extract https://api.example.com/docs --output ./api-docs.md --output-format markdown
自訂格式
Use fetch-url to fetch https://blog.example.com/post --output-format raw-html --timeout-ms 30000
多個頁面
Extract these three URLs as JSON: docs page, API reference, and changelog. Save each to output files.

모범 사례

  • 對於載入緩慢的頁面,使用 --timeout-ms 旗標以避免卡住
  • 如果您在本機安裝了 Chrome/Edge,請指定 --browser-path
  • 當您需要未修改的 HTML 時,使用 --output-format raw-html

피하기

  • 不要嘗試擷取本機檔案網址(不支援 file:// 方案)
  • 避免在沒有適當認證的情況下擷取登入牆後方的頁面
  • 不要對無回應的伺服器使用極長的超時時間

자주 묻는 질문

支援哪些瀏覽器?
任何以 Chromium 為基礎的瀏覽器:Chrome、Edge、Brave、Chromium 或 Playwright 綑綁的瀏覽器。
JavaScript 內容會怎麼樣?
Playwright 會渲染 JavaScript,但如果內容在 networkidle 之後才載入,動態載入的內容可能會遺失。
這與 curl 或 wget 有什麼不同?
此工具使用真正的瀏覽器來渲染 JavaScript 並提取乾淨的文字,而不是原始 HTML 原始碼。
我的瀏覽資料會被儲存嗎?
不會儲存持續性資料。每次執行都會建立新的瀏覽器上下文,提取後即會關閉。
為什麼需要瀏覽器?
現代網頁使用 JavaScript 來載入內容。瀏覽器渲染器會擷取最終渲染的頁面。
這可以存取經過認證的內容嗎?
無法直接存取。此工具在沒有登入憑證的情況下以無頭模式執行。經過認證的內容需要另行處理。

개발자 세부 정보

작성자

DCjanus

라이선스

MIT

참조

master

파일 구조