web-search-scraper-api-skill
Markdown von beliebiger Website-URL extrahieren
Web Scraping scheitert häufig wegen CAPTCHA, Rate-Limits oder komplexer JavaScript-Rendering. Diese Skill verwendet die BrowserAct-API, um zuverlässig saubere, vollständige Markdown-Inhalte von beliebigen URLs ohne diese Hindernisse zu extrahieren.
下載技能 ZIP
在 Claude 中上傳
前往 設定 → 功能 → 技能 → 上傳技能
開啟並開始使用
測試它
正在使用「web-search-scraper-api-skill」。 Extrahiere Markdown von https://example.com/blog/post
預期結果:
Erfolgreich 2.450 Wörter an Markdown-Inhalt extrahiert, einschließlich aller Überschriften, Code-Blöcke und formatiertem Text aus dem Artikel.
正在使用「web-search-scraper-api-skill」。 Scraape diese Tutorial-Seite: https://docs.example.com/getting-started
預期結果:
15 Abschnitte der Dokumentation in sauberes Markdown mit beibehaltenen Überschriften, Listen und Code-Beispielen konvertiert.
安全審計
安全Security audit completed. All static findings evaluated as false positives or legitimate patterns. Network access is restricted to BrowserAct's official API endpoint. API key is handled properly and never sent to external destinations. No malicious intent or data exfiltration patterns detected. The skill is a legitimate web scraping API client for the BrowserAct service.
中風險問題 (2)
低風險問題 (3)
風險因素
🌐 網路存取 (5)
🔑 環境變數 (3)
⚙️ 外部命令 (1)
品質評分
你能建構什麼
Forschungsdatensammlung
Automatisch Artikel-Inhalte, Dokumentation und Referenzmaterialien von mehreren URLs für Forschungszwecke extrahieren, ohne manuelles Kopieren-Einfügen.
Content-Aggregation-Pipeline
Extrahierte Markdown-Inhalte in KI-Systeme für Zusammenfassung, Analyse oder Umformatierung einspeisen. Ideal für den Aufbau von Content-Pipelines.
Dokumentationsarchivierung
Technische Dokumentation, Tutorials und API-Referenzen im Markdown-Format für Offline-Zugriff oder Backup-Zwecke herunterladen und archivieren.
試試這些提示
Extrahiere den Markdown-Inhalt von dieser URL: ${url}Verwende den Web-Scraper-Skill, um Markdown von jeder dieser URLs zu extrahieren: ${urls}. Verarbeite sie nacheinander und gib die Inhalte zurück.Extrahiere alle Inhalte von der Dokumentation unter ${url} als Markdown, damit ich sie offline lesen kann.Versuche, den Artikelinhalt von ${url} zu extrahieren. Falls der API-Schlüssel fehlt, frage mich zuerst danach, bevor du die Extraktion versuchst.最佳實務
- Überprüfe immer, ob die Ziel-URL erreichbar ist, bevor du den Scraper aufrufst, um unnötige API-Aufrufe zu vermeiden
- Behandle fehlende API-Schlüssel elegant, indem du den Benutzer aufforderst, bevor du fortfährst
- Implementiere Wiederholungslogik (ein einzelner Retry) für vorübergehende Fehler, aber stoppe bei Autorisierungsfehlern
避免
- Übermittle keine nicht vertrauenswürdigen URLs ohne Validierung - der Skill erwartet korrekt formatierte HTTP/HTTPS-URLs
- Ignoriere keine API-Schlüssel-Fehler - melde Authentifizierungsfehler immer dem Benutzer
- Scraape nicht dieselbe URL wiederholt in schneller Abfolge - respektiere Rate-Limits