extract
URL에서 웹 콘텐츠 추출
이 스킬은 Tavily 추출 API를 사용하여 특정 URL에서 깨끗한 마크다운 또는 텍스트 콘텐츠를 추출합니다. 사용자 정의 스크래핑 코드를 작성하지 않고 연구, 문서 검색 및 콘텐츠 집계에 이상적입니다.
Télécharger le ZIP du skill
Importer dans Claude
Allez dans Paramètres → Capacités → Skills → Importer un skill
Activez et commencez à utiliser
Tester
Utilisation de "extract". https://example.com/about에서 콘텐츠 추출
Résultat attendu:
## Example 정보
Example.com에 오신 것을 환영합니다...
우리의 미션
저희는 ...
Utilisation de "extract". https://example.com/pricing 및 https://example.com/plans에서 가격 정보 추출
Résultat attendu:
## 가격 정보
### 기본 플랜 - $9/월
- 기능 A
- 기능 B
### 프로 플랜 - $29/월
- 모든 기본 기능
- 우선 지원...
Audit de sécurité
Risque faibleStatic analysis detected 137 potential issues across external_commands, network, filesystem, and env_access categories. After semantic evaluation, all findings are FALSE POSITIVES - these patterns represent legitimate API extraction functionality. The skill uses standard shell commands (curl, jq) to communicate with Tavily's official API, accesses environment variables for API key authentication, and reads OAuth tokens from the standard MCP auth directory. No malicious behavior, data exfiltration, or command injection vulnerabilities were identified.
Problèmes à risque faible (4)
Facteurs de risque
⚙️ Commandes externes (62)
🌐 Accès réseau (33)
📁 Accès au système de fichiers (17)
🔑 Variables d’environnement (16)
Score de qualité
Ce que vous pouvez construire
연구 문서 수집
로컬 지식 베이스를 구축하기 위해 여러 API 레퍼런스 페이지에서 문서 콘텐츠 추출
경쟁 분석
시장 조사를 위해 경쟁사 웹사이트, 제품 페이지 및 블로그 포스트에서 콘텐츠 추출
콘텐츠 집계
여러 뉴스 소스 또는 블로그의 기사 및 콘텐츠를 단일 마크다운 형식으로 가져오기
Essayez ces prompts
이 URL의 콘텐츠를 추출하세요: https://example.com/article
이 URL들에서 콘텐츠를 추출하세요: https://docs.example.com/api, https://docs.example.com/auth
이 URL들에서 인증 관련 정보를 추출하세요: https://example.com/docs, https://example.com/api-reference. API 키 및 OAuth에 중점을 두세요.
고급 추출을 사용하여 이 JavaScript-heavy 페이지의 모든 콘텐츠를 추출하세요: https://app.example.com/dashboard
Bonnes pratiques
- 콘텐츠를 정확히 필요한 것으로 필터링하려면 쿼리 매개변수를 사용하세요. 특히 큰 페이지에서 추출할 때 유용합니다
- 기본 추출로 시작하고 콘텐츠가 누락되거나 불완전한 경우에만 고급 모드를 사용하세요
- URL을 주제 또는 카테고리로 그룹화하여 결과를 체계적이고 관련성 있게 유지하세요
Éviter
- 단일 요청에서 20개 이상의 URL을 추출하면 실패합니다
- 쿼리 매개변수 없이 chunks_per_source를 사용하면 오류가 반환됩니다
- 응답의 failed_results 필드를 확인하지 않으면 추출 실패를 놓칠 수 있습니다