extract
从 URL 提取网页内容
متاح أيضًا من: pbakaus
此技能使用 Tavily 的提取 API 从特定 URL 提取干净的 markdown 或文本内容。非常适合研究、文档检索和内容聚合,无需编写自定义爬虫代码。
تنزيل ZIP المهارة
رفع في Claude
اذهب إلى Settings → Capabilities → Skills → Upload skill
فعّل وابدأ الاستخدام
اختبرها
استخدام "extract". Extract content from https://example.com/about
النتيجة المتوقعة:
## About Example
Welcome to Example.com...
Our Mission
We strive to provide...
استخدام "extract". Extract information about pricing from https://example.com/pricing and https://example.com/plans
النتيجة المتوقعة:
## Pricing Information
### Basic Plan - $9/month
- Feature A
- Feature B
### Pro Plan - $29/month
- All Basic features
- Priority support...
التدقيق الأمني
مخاطر منخفضةStatic analysis detected 137 potential issues across external_commands, network, filesystem, and env_access categories. After semantic evaluation, all findings are FALSE POSITIVES - these patterns represent legitimate API extraction functionality. The skill uses standard shell commands (curl, jq) to communicate with Tavily's official API, accesses environment variables for API key authentication, and reads OAuth tokens from the standard MCP auth directory. No malicious behavior, data exfiltration, or command injection vulnerabilities were identified.
مشكلات منخفضة المخاطر (4)
عوامل الخطر
⚙️ الأوامر الخارجية (62)
🌐 الوصول إلى الشبكة (33)
📁 الوصول إلى نظام الملفات (17)
🔑 متغيرات البيئة (16)
درجة الجودة
ماذا يمكنك بناءه
研究文档收集
从多个 API 参考页面提取文档内容,构建本地知识库
竞品分析
从竞争对手网站、产品页面和博客文章中提取内容,用于市场研究
内容聚合
从多个新闻源或博客拉取文章和内容,整合为单一的 markdown 格式
جرّب هذه الموجهات
Extract the content from this URL: https://example.com/article
Extract content from these URLs: https://docs.example.com/api, https://docs.example.com/auth
Extract information about authentication from these URLs: https://example.com/docs, https://example.com/api-reference. Focus on API keys and OAuth.
Extract all content from this JavaScript-heavy page using advanced extraction: https://app.example.com/dashboard
أفضل الممارسات
- 使用查询参数将内容筛选为正好您需要的,特别是在从大型页面提取时
- 先从基础提取开始,只有在内容缺失或不完整时才使用高级模式
- 按主题或类别对 URL 进行批量分组,以保持结果有条理且相关
تجنب
- 在单个请求中提取超过 20 个 URL 将会失败
- 使用 chunks_per_source 但不提供查询参数将返回错误
- 不检查响应中的 failed_results 字段可能会遗漏提取失败的情况