스킬 llm-application-dev-prompt-optimize
🎯

llm-application-dev-prompt-optimize

안전

고급 엔지니어링 기법을 활용한 LLM 프롬프트 최적화

기본적인 지침을 프로덕션 수준의 프롬프트로 변환하여 정확도를 40% 향상시키고 비용을 50-80% 절감합니다. 이 스킬은 사고 연쇄 (chain-of-thought) 추론, 헌법적 AI 패턴, 그리고 Claude, GPT, Gemini 를 위한 모델별 최적화에 대한 전문가 지침을 제공합니다.

지원: Claude Codex Code(CC)
📊 71 적절함
1

스킬 ZIP 다운로드

2

Claude에서 업로드

설정 → 기능 → 스킬 → 스킬 업로드로 이동

3

토글을 켜고 사용 시작

테스트해 보기

"llm-application-dev-prompt-optimize" 사용 중입니다. Optimize this prompt: 'Answer customer questions about refunds'

예상 결과:

역할 정의, 진단 프레임워크, 솔루션 전달 구조, 검증 단계, 제약 조건, JSON 출력 형식을 포함한 최적화된 프롬프트. 품질 보장을 위한 사고 연쇄 추론 섹션과 자체 검토 체크리스트 포함.

"llm-application-dev-prompt-optimize" 사용 중입니다. Make this prompt better for data analysis: 'Analyze the sales data'

예상 결과:

5 단계 종합 분석 프레임워크: 데이터 검증, 통계적 유의성 테스트를 포함한 트렌드 분석, 다차원 세그먼트 분석, 신뢰도 점수가 포함된 인사이트 템플릿, YAML 형식의 우선순위 권장사항.

보안 감사

안전
v1 • 2/25/2026

Static analysis detected 62 potential security issues in code examples within documentation files. All findings are false positives - the detected patterns (Ruby backticks, MD5 references, reconnaissance commands) appear exclusively within markdown code blocks that demonstrate prompt engineering techniques. The skill contains no executable code, performs no file operations, network requests, or command execution. It is a documentation-only skill providing guidance on prompt optimization best practices.

2
스캔된 파일
632
분석된 줄 수
0
발견 사항
1
총 감사 수
보안 문제를 찾지 못했습니다
감사자: claude

품질 점수

38
아키텍처
100
유지보수성
87
콘텐츠
31
커뮤니티
100
보안
91
사양 준수

만들 수 있는 것

고객 지원 프롬프트 최적화

기본 고객 지원 프롬프트를 진단 추론 프레임워크, 에스컬레이션 경로, 품질 제약 조건이 포함된 구조화된 공감형 응답 시스템으로 변환하여 일관되고 전문적인 고객 지원 상호작용을 제공합니다.

데이터 분석 프롬프트 강화

단순한 데이터 분석 요청을 단계별 검증, 통계적 유의성 테스트, 세그먼트 분석, 구조화된 YAML 형식의 임원 보고를 포함한 종합 분석 프레임워크로 업그레이드합니다.

코드 생성 안전성 개선

보안 우선 설계 사고, 입력 검증 요구사항, SOLID 원칙, 자체 검토 체크리스트를 코드 생성 프롬프트에 추가하여 인젝션 취약점을 방지하고 프로덕션 수준의 코드를 보장합니다.

이 프롬프트를 사용해 보세요

기본 사고 연쇄 (Chain-of-Thought) 프롬프트
Analyze this step by step:

1. Identify the core problem
2. Break down into smaller components
3. Reason through each component carefully
4. Synthesize findings
5. Provide final answer with confidence level

Input: {your_input}
퓨샷 러닝 (Few-Shot Learning) 템플릿
Example 1:
Input: {simple_case}
Output: {correct_output}

Example 2:
Input: {edge_case}
Output: {correct_output}

Example 3:
Input: {error_case}
Wrong: {incorrect_output}
Correct: {correct_output}

Now apply to: {actual_input}
자아 비판이 포함된 헌법적 AI (Constitutional AI)
{task_instructions}

Review your response against these principles:
1. ACCURACY: Verify all claims, flag uncertainties
2. SAFETY: Check for harm, bias, ethical issues
3. QUALITY: Ensure clarity, consistency, completeness

Initial Response: [Generate]
Self-Review: [Evaluate against principles]
Final Response: [Refined based on review]
모델 최적화 구조 (Claude 용)
<context>
{background_information}
</context>

<task>
{clear_objective_with_constraints}
</task>

<thinking>
1. Understanding requirements...
2. Identifying components...
3. Planning approach...
</thinking>

<output_format>
{xml_structured_response_specification}
</output_format>

모범 사례

  • 프롬프트에 항상 명확한 역할, 컨텍스트, 작업, 출력 형식을 정의
  • 복잡한 다단계 문제의 경우 정확도 향상을 위해 사고 연쇄 (chain-of-thought) 추론 사용
  • 퓨샷 러닝을 위해 일반 사례, 엣지 케이스, 오류 사례를 다루는 3-5 개의 다양한 예시 포함
  • 안전성 중시 애플리케이션에 대해 헌법적 원칙과 함께 자아 비판 루프 구현

피하기

  • 프레임워크, 출력 형식, 성공 기준을 명시하지 않은 '이것을 분석해' 같은 모호한 지침 사용 회피
  • 엣지 케이스 커버리지가 없는 단일 예시 사용 금지 - 이는 취약한 프롬프트 동작으로 이어짐
  • 적대적 입력, 범위를 벗어난 쿼리, 엣지 케이스에 대한 테스트 없이 프롬프트 배포 금지
  • 모델 비종속 프롬프트 사용 회피 - 특정 LLM 에 맞춘 구조 최적화 (Claude 는 XML 태그 선호, GPT 는 ## 헤더 선호)

자주 묻는 질문

사고 연쇄 (chain-of-thought) 프롬프팅이란 무엇이며 언제 사용해야 하나요?
사고 연쇄 (Chain-of-Thought, CoT) 프롬프팅은 복잡한 문제를 단계별 추론으로 분해합니다. 논리적 연역, 다단계 계산, 체계적 분석이 필요한 작업에 사용하세요. CoT 는 수학, 논리, 분석 작업에서 추론 정확도를 25-40% 향상시킬 수 있습니다.
퓨샷 러닝에 몇 개의 예시를 포함해야 하나요?
다음과 같은 3-5 개의 신중하게 선택된 예시를 포함하세요: 단순 사례 (기대되는 동작), 엣지 케이스 (경계 조건), 오류 사례 (회피해야 할 사항). 양보다 질이 중요합니다 - 각 예시는 원하는 동작의 서로 다른 측면을 가르쳐야 합니다.
헌법적 AI (Constitutional AI) 란 무엇이며 왜 중요한가요?
헌법적 AI 는 원칙 (정확성, 안전성, 품질) 을 자아 비판 루프와 함께 프롬프트에 내장합니다. 모델은 초기 응답을 생성하고, 원칙에 따라 평가한 후, 그에 따라 개선합니다. 이는 유해한 출력을 40% 감소시키며 프로덕션 애플리케이션에 필수적입니다.
Claude 와 GPT 에 대해 프롬프트를 다르게 최적화해야 하나요?
그렇습니다. Claude 는 XML 태그 (<context>, <task>, <output_format>) 와 명시적 추론 섹션에서 최고의 성능을 발휘합니다. GPT-4/5 는 ## 헤더와 JSON 구조를 선호합니다. Gemini 는 명시적 제약 조건과 함께 **볼드** 섹션 마커에 잘 반응합니다. 항상 대상 모델에 맞게 구문을 조정하세요.
프롬프트 최적화가 작동하고 있는지 어떻게 측정하나요?
20 개의 테스트 케이스 (일반 10 개, 엣지 5 개, 적대적 3 개, 범위 밖 2 개) 를 사용한 LLM-as-judge 평가를 사용하세요. 작업 완료, 정확도, 추론, 형식 준수, 안전성을 평가하세요. 시간이 지남에 따라 성공률, 토큰 효율성, 비용을 추적하세요. 48 시간 동안 원래 프롬프트와 A/B 테스트를 진행하세요.
피해야 할 일반적인 프롬프트 최적화 실수는 무엇인가요?
일반적인 실수: 출력 형식 명세 생략 (일관성 없는 응답 유발), 모호한 언어 사용 (다양한 해석으로 이어짐), 엣지 케이스 예시 생략 (취약한 동작 생성), 적대적 입력에 대한 테스트 없이 배포 (안전성 문제 위험).

개발자 세부 정보

파일 구조