extract
從網址擷取網頁內容
此技能使用 Tavily 的擷取 API 從特定網址擷取乾淨的 markdown 或文字內容。非常適合研究、文件擷取和內容聚合,無需編寫自訂爬蟲程式碼。
تنزيل ZIP المهارة
رفع في Claude
اذهب إلى Settings → Capabilities → Skills → Upload skill
فعّل وابدأ الاستخدام
اختبرها
استخدام "extract". Extract content from https://example.com/about
النتيجة المتوقعة:
## About Example
Welcome to Example.com...
Our Mission
We strive to provide...
استخدام "extract". Extract information about pricing from https://example.com/pricing and https://example.com/plans
النتيجة المتوقعة:
## Pricing Information
### Basic Plan - $9/month
- Feature A
- Feature B
### Pro Plan - $29/month
- All Basic features
- Priority support...
التدقيق الأمني
مخاطر منخفضةStatic analysis detected 137 potential issues across external_commands, network, filesystem, and env_access categories. After semantic evaluation, all findings are FALSE POSITIVES - these patterns represent legitimate API extraction functionality. The skill uses standard shell commands (curl, jq) to communicate with Tavily's official API, accesses environment variables for API key authentication, and reads OAuth tokens from the standard MCP auth directory. No malicious behavior, data exfiltration, or command injection vulnerabilities were identified.
مشكلات منخفضة المخاطر (4)
عوامل الخطر
⚙️ الأوامر الخارجية (62)
🌐 الوصول إلى الشبكة (33)
📁 الوصول إلى نظام الملفات (17)
🔑 متغيرات البيئة (16)
درجة الجودة
ماذا يمكنك بناءه
研究文件彙集
從多個 API 參考頁面擷取文件內容,以建立本地知識庫
競爭分析
從競爭對手網站、產品頁面和部落格文章擷取內容,以進行市場研究
內容聚合
將多個新聞來源或部落格的文章和內容擷取為單一 markdown 格式
جرّب هذه الموجهات
Extract the content from this URL: https://example.com/article
Extract content from these URLs: https://docs.example.com/api, https://docs.example.com/auth
Extract information about authentication from these URLs: https://example.com/docs, https://example.com/api-reference. Focus on API keys and OAuth.
Extract all content from this JavaScript-heavy page using advanced extraction: https://app.example.com/dashboard
أفضل الممارسات
- 使用查詢參數過濾內容,特別是從大型頁面擷取時,只取得您需要的精確內容
- 先從基礎擷取開始,只有在內容缺失或不完整時才使用進階模式
- 按主題或類別對網址進行分組,以保持結果的組織性和相關性
تجنب
- 在單次請求中擷取超過 20 個網址將會失敗
- 使用 chunks_per_source 但沒有查詢參數將會返回錯誤
- 未檢查回應中的 failed_results 欄位可能會錯過擷取失敗的情況