技能 web-search-scraper-api-skill
🌐

web-search-scraper-api-skill

安全 🌐 網路存取🔑 環境變數⚙️ 外部命令

Markdown von beliebiger Website-URL extrahieren

Web Scraping scheitert häufig wegen CAPTCHA, Rate-Limits oder komplexer JavaScript-Rendering. Diese Skill verwendet die BrowserAct-API, um zuverlässig saubere, vollständige Markdown-Inhalte von beliebigen URLs ohne diese Hindernisse zu extrahieren.

支援: Claude Codex Code(CC)
🥉 74 青銅
1

下載技能 ZIP

2

在 Claude 中上傳

前往 設定 → 功能 → 技能 → 上傳技能

3

開啟並開始使用

測試它

正在使用「web-search-scraper-api-skill」。 Extrahiere Markdown von https://example.com/blog/post

預期結果:

Erfolgreich 2.450 Wörter an Markdown-Inhalt extrahiert, einschließlich aller Überschriften, Code-Blöcke und formatiertem Text aus dem Artikel.

正在使用「web-search-scraper-api-skill」。 Scraape diese Tutorial-Seite: https://docs.example.com/getting-started

預期結果:

15 Abschnitte der Dokumentation in sauberes Markdown mit beibehaltenen Überschriften, Listen und Code-Beispielen konvertiert.

安全審計

安全
v1 • 4/28/2026

Security audit completed. All static findings evaluated as false positives or legitimate patterns. Network access is restricted to BrowserAct's official API endpoint. API key is handled properly and never sent to external destinations. No malicious intent or data exfiltration patterns detected. The skill is a legitimate web scraping API client for the BrowserAct service.

2
已掃描檔案
173
分析行數
8
發現項
1
審計總數
中風險問題 (2)
Network API Access Pattern
Script makes HTTP requests to external API endpoint with authentication headers. Verified as legitimate BrowserAct service usage - API key is only sent to https://api.browseract.com/v2/workflow, a known trusted endpoint. No data exfiltration detected.
Environment Variable API Key Access
Script retrieves BROWSERACT_API_KEY from environment variables using os.getenv(). Evaluated as legitimate credential handling - key is used only for BrowserAct authentication and not exfiltrated to third parties.
低風險問題 (3)
Hardcoded Service URLs
API endpoints hardcoded for BrowserAct service configuration. These are known, trusted endpoints documented in SKILL.md. Not suspicious - part of service configuration.
Task Polling with Timeout
Script polls API for task completion status with 300-second timeout. Standard API polling pattern for async operations - not system reconnaissance.
Documentation Code Blocks
Markdown contains backtick syntax for code examples. Documentation artifacts detected by static scanner - not actual shell command execution risks.
審計者: claude

品質評分

45
架構
100
可維護性
87
內容
50
社群
89
安全
91
規範符合性

你能建構什麼

Forschungsdatensammlung

Automatisch Artikel-Inhalte, Dokumentation und Referenzmaterialien von mehreren URLs für Forschungszwecke extrahieren, ohne manuelles Kopieren-Einfügen.

Content-Aggregation-Pipeline

Extrahierte Markdown-Inhalte in KI-Systeme für Zusammenfassung, Analyse oder Umformatierung einspeisen. Ideal für den Aufbau von Content-Pipelines.

Dokumentationsarchivierung

Technische Dokumentation, Tutorials und API-Referenzen im Markdown-Format für Offline-Zugriff oder Backup-Zwecke herunterladen und archivieren.

試試這些提示

Einzelnen Artikel extrahieren
Extrahiere den Markdown-Inhalt von dieser URL: ${url}
Stapel-URL-Extraktion
Verwende den Web-Scraper-Skill, um Markdown von jeder dieser URLs zu extrahieren: ${urls}. Verarbeite sie nacheinander und gib die Inhalte zurück.
Dokumentations-Scrape
Extrahiere alle Inhalte von der Dokumentation unter ${url} als Markdown, damit ich sie offline lesen kann.
Inhalt mit Fallback
Versuche, den Artikelinhalt von ${url} zu extrahieren. Falls der API-Schlüssel fehlt, frage mich zuerst danach, bevor du die Extraktion versuchst.

最佳實務

  • Überprüfe immer, ob die Ziel-URL erreichbar ist, bevor du den Scraper aufrufst, um unnötige API-Aufrufe zu vermeiden
  • Behandle fehlende API-Schlüssel elegant, indem du den Benutzer aufforderst, bevor du fortfährst
  • Implementiere Wiederholungslogik (ein einzelner Retry) für vorübergehende Fehler, aber stoppe bei Autorisierungsfehlern

避免

  • Übermittle keine nicht vertrauenswürdigen URLs ohne Validierung - der Skill erwartet korrekt formatierte HTTP/HTTPS-URLs
  • Ignoriere keine API-Schlüssel-Fehler - melde Authentifizierungsfehler immer dem Benutzer
  • Scraape nicht dieselbe URL wiederholt in schneller Abfolge - respektiere Rate-Limits

常見問題

Was brauche ich, um diesen Skill zu nutzen?
Du brauchst einen BrowserAct API-Schlüssel, der als BROWSERACT_API_KEY Umgebungsvariable gesetzt ist. Registriere dich auf browseract.com, um deinen Schlüssel zu erhalten.
Wie lange dauert die Extraktion?
Die meisten Seiten werden in 10-60 Sekunden extrahiert, abhängig von der Komplexität. Das Skript prüft auf Abschluss und meldet den Status alle 10 Sekunden.
Kann dies CAPTCHAs umgehen?
Ja. BrowserAct bewältigt CAPTCHAs und Bot-Erkennung automatisch durch Browser-Automatisierung.
Welche Formate werden unterstützt?
Jede HTTP- oder HTTPS-URL funktioniert. Die Ausgabe ist immer sauberes Markdown mit erhaltener Struktur, Überschriften und Code-Blöcken.
Gibt es einen Retry-Mechanismus?
Ja. Wenn eine Anfrage ohne Autorisierungsfehler fehlschlägt, wiederholt der Agent automatisch einmal. Ungültige API-Schlüssel werden nicht wiederholt.
Gibt es Rate-Limits?
BrowserAct hat Rate-Limits basierend auf deiner Abonnementstufe. Der Skill ist darauf ausgelegt, angemessene Nutzungsmuster zu respektieren.