المهارات llm-app-patterns
📦

llm-app-patterns

آمن

프로덕션 LLM 애플리케이션 구축

LLM 애플리케이션을 구축하려면 복잡한 아키텍처 결정을 탐색해야 합니다. 이 스킬은 RAG 파이프라인, 에이전트 시스템 및 프로덕션 운영을 위한 검증된 패턴을 제공합니다.

يدعم: Claude Codex Code(CC)
📊 69 كافٍ
1

تنزيل ZIP المهارة

2

رفع في Claude

اذهب إلى Settings → Capabilities → Skills → Upload skill

3

فعّل وابدأ الاستخدام

اختبرها

استخدام "llm-app-patterns". 사용자 질문: 회사의 환불 정책은 무엇인가요?

النتيجة المتوقعة:

  • 벡터 데이터베이스에서 관련 정책 문서 검색
  • 출처 인용과 함께 검색된 컨텍스트에 기반한 답변 생성
  • 신뢰도 점수와 문서 참조를 포함한 응답 반환

استخدام "llm-app-patterns". 사용자 질문: 기후 변화 영향에 대한 연구 프로젝트를 계획해주세요

النتيجة المتوقعة:

  • 데이터 수집, 트렌드 분석, 출처 식별, 보고서 초안 작성 단계로 계획 생성
  • 도구 호출을 통해 각 단계를 순차적으로 실행
  • 발견사항을 종합하여 포괄적인 연구 개요로 통합

التدقيق الأمني

آمن
v1 • 2/25/2026

This skill is a documentation file containing educational content about LLM application patterns. All static analysis findings are false positives caused by markdown formatting. The backticks flagged are code block delimiters and ASCII art borders, not shell command execution. URLs are documentation references, not active network calls. Code examples like hashlib.sha256 are illustrative and use secure algorithms. No executable code or security risks detected.

1
الملفات التي تم فحصها
763
الأسطر التي تم تحليلها
0
النتائج
1
إجمالي عمليات التدقيق
لا توجد مشكلات أمنية
تم تدقيقه بواسطة: claude

درجة الجودة

38
الهندسة المعمارية
100
قابلية الصيانة
87
المحتوى
26
المجتمع
100
الأمان
83
الامتثال للمواصفات

ماذا يمكنك بناءه

RAG 지식 베이스

하이브리드 검색과 문맥 압축을 사용하여 문서에 기반한 질문 응답 시스템을 구축합니다.

에이전트 작업 자동화

ReAct 또는 Plan-and-Execute 패턴을 사용하여 검색, 계산 및 정보 종합이 가능한 멀티스텝 에이전트를 생성합니다.

LLM 프로덕션 모니터링

지표 추적, 분산 추적 및 평가 프레임워크를 통해 LLM 애플리케이션의 가시성을 구현합니다.

جرّب هذه الموجهات

기본 RAG 프롬프트
다음 컨텍스트에 기반하여 사용자의 질문에 답변하세요. 컨텍스트에 충분한 정보가 없다면 정보가 부족하다고 말하세요.

컨텍스트:
{context}

질문: {question}

답변:
ReAct 에이전트 프롬프트
당신은 도구를 사용하여 질문에 답변하는 AI 어시스턴트입니다.

사용 가능한 도구:
{tools_description}

다음 형식을 사용하세요:
Thought: [다음으로 무엇을 할지에 대한 추론]
Action: [tool_name(arguments)]
Observation: [도구 결과]
... (필요시 반복)
Thought: 이제 답변할 충분한 정보가 있습니다
Final Answer: [응답]

질문: {question}
예시가 포함된 Few-Shot 프롬프트
입력: {example1_input}
출력: {example1_output}

입력: {example2_input}
출력: {example2_output}

입력: {user_input}
출력:
연구용 프롬프트 체인
1 단계 (연구): 주제 연구: {input}
2 단계 (분석): 이 발견사항 분석: {research}
3 단계 (요약): 이 분석을 3 개의 핵심 항목으로 요약: {analysis}

أفضل الممارسات

  • 더 나은 검색 정확도를 위해 시맨틱 검색과 키워드 매칭을 결합한 하이브리드 검색 사용
  • 지연 시간과 비용을 줄이기 위해 결정론적 프롬프트에 캐싱 구현
  • 지속적인 개선을 위해 지연 시간, 토큰 사용량 및 사용자 만족도와 같은 핵심 지표 추적

تجنب

  • 문맥을 파괴하는 문서 구조를 고려하지 않은 고정 크기 청킹 사용
  • 품질 저하를 감지할 수 없게 만드는 평가 및 모니터링 생략
  • 주요 LLM 공급자가 중단될 때 폴백 전략을 구현하지 않음

الأسئلة المتكررة

RAG 와 파인튜닝의 차이점은 무엇인가요?
RAG 는 쿼리 시점에 관련 문서를 검색하고 컨텍스트로 제공하여 모델이 재학습 없이 최신 정보에 접근할 수 있게 합니다. 파인튜닝은 훈련 데이터의 모델 가중치를 조정하며, 스타일이나 형식을 배우는 데는 더 좋지만 훈련 후 새로운 지식을 추가할 수는 없습니다.
다양한 에이전트 아키텍처 중에서 어떻게 선택해야 하나요?
도구 사용을 통한 인터랙티브 멀티스텝 추론에는 ReAct 를 사용하세요. 구조화된 API 통합에는 함수 호출을 사용하세요. 사전 계획이 필요한 복잡한 작업에는 Plan-and-Execute 를 사용하세요. 다양한 하위 작업에 전문 지식이 필요할 때는 멀티에이전트 시스템을 사용하세요.
프로덕션에 어떤 벡터 데이터베이스를 사용해야 하나요?
높은 확장성이 필요한 관리형 서비스에는 Pinecone 을 사용하세요. GraphQL 이 필요한 자체 호스팅에는 Weaviate 를 사용하세요. 기존 PostgreSQL 인프라가 있다면 pgvector 를 사용하세요. 프로토타이핑에는 단순성을 위해 ChromaDB 를 사용하세요.
LLM API 비용을 어떻게 줄일 수 있나요?
유사한 쿼리에 대한 시맨틱 캐싱 구현, 간단한 작업에는 작은 모델 사용, 프롬프트 길이 최적화, 적절한 temperature 설정 (캐싱 가능한 응답은 0), 주요 모델이 속도 제한될 때 폴백 모델 사용.
LLM 애플리케이션에 대해 어떤 지표를 추적해야 하나요?
성능 지표 (지연 시간, 초당 토큰 수), 품질 지표 (사용자 만족도, 작업 완료율), 비용 지표 (요청당 비용, 캐시 적중률), 신뢰성 지표 (오류율, 타임아웃율) 를 추적하세요.
RAG 시스템에서 환각을 어떻게 처리해야 하나요?
컨텍스트가 불충분할 때 모델이 '모르겠습니다'라고 말하도록 지시하고, 평가에서 근거 점수를 사용하며, 검색 품질 검사를 구현하고, 모델이 주장에 대한 출처를 인용하는 검증 단계를 추가하는 것을 고려하세요.

تفاصيل المطور

المؤلف

sickn33

الترخيص

MIT

مرجع

main

بنية الملفات

📄 SKILL.md