"게으른 AI"를 극복하는 프롬프트 전략 — GPT 5.5와 Opus 4.7 모두 해당된다
2026년 4월 30일 | 프롬프트 엔지니어링 | AI 코딩 에이전트
들어가며: GPT 5.5도 Opus 4.7도 모두 "게으르다"
최근 각종 커뮤니티에서는 게으른 AI (lazy AI)라는 표현이 심심치 않게 볼 수 있다.
"프롬프트에 명시된 내용만 최소한으로 수행하는 '게으른' 성향이 있어
상세한 프롬프팅이나 사전 계획·Q&A 과정이 필요하다."
"'게으른' 경향이 있어 최소한의 작업만 수행하는 경우가 있다.
빠르게 중간 수준의 솔루션을 만들려는 경향이 있다."
이는 GPT 5.5, Opus 4.7 모두에 해당한다.
이것은 모델의 결함이 아니라 대규모 언어 모델의 구조적 특성이다.
그리고 올바른 프롬프트로 이 행동을 바꿀 수 있다.
참고로 게으르다는 말은 결국 최소한의 노력을 지향한다는 말이다.
이제는 점점 더 사람과 비슷해지는 것이다.
1. "게으른 AI"의 행동 원리
AI가 최소한의 작업만 하는 이유는 세 가지이다.
① 모호한 성공 기준:
"이 함수를 개선해줘"라는 프롬프트에서 AI는 무엇이 "개선"인지 모른다.
가장 작은 변경으로 합리적인 결과를 내는 것이 모델 입장에서 논리적 선택이다.
② effort 파라미터의 기본값:
Anthropic은 Opus 4.7에 effort 파라미터를 도입하였다.
- 기본값은 "high"이지만,
- 복잡한 코딩 태스크에는 "xhigh"가 필요하다.
API 파라미터가 아닌 자연어로 "더 열심히 해줘"라고 지시하는 것은
효과가 없거나 오히려 반대 효과를 낸다.
③ 출력 길이와 비용:
모델은 불필요하게 긴 출력을 생성하지 않도록 훈련되어 있다.
범위가 명확하지 않으면 짧게 끊는 것이 기본 동작이다.
2. 작동하지 않는 기법들 — 2023년 프롬프트는 이제 효과 없다
2023~2024년에 통했던 기법들이 2026년 프론티어 모델에서는 효과가 없거나 역효과를 낸다.
- "Step by step으로 생각해줘":
GPT-5.5와 Opus 4.7 같은 추론 모델은 이미 내부에서 추론하고 답한다.
이 지시어는 중복이며, 사고 예산을 낭비하게 만든다. - ALL-CAPS 강조, "YOU MUST", "NEVER EVER":
Anthropic 공식 문서가 명시적으로 경고한다.
"aggressive formatting destroys output quality."
Claude를 과도하게 자극하여 오히려 결과가 나빠진다. - "더 열심히 해줘", "더 자세히 써줘":
자연어 지시로 effort를 올리려는 시도이다. 효과가 없다.
effort 파라미터를 API에서 직접 설정하는 것이 유일한 방법이다. - 긴 프롬프트:
추론 성능은 약 3,000 토큰부터 저하된다.
실용적인 프롬프트 최적 길이는 150~300 단어이다.
3. 실제로 작동하는 기법들 — 2026년 검증된 전략
기법 1. 성공 기준을 명시하라
"개선"이 아니라 "무엇이 완료되었을 때 성공인지"를 정의한다.
나쁜 프롬프트:
이 함수를 개선해줘.
좋은 프롬프트:
이 함수를 다음 기준으로 개선해줘:
1. 엣지 케이스 3개(빈 입력, null, 정수 오버플로) 처리 추가
2. 타입 힌트 완성
3. 독스트링 추가 (파라미터, 리턴값, 예외 포함)
완료 기준: 위 3개가 모두 포함된 경우.
기법 2. 모델별 구조 최적화
모델마다 다른 입력 구조를 선호한다.
Claude Opus 4.7:
<task>PR 리뷰 수행</task>
<context>Python Flask API, PostgreSQL, 인증 모듈 변경</context>
<criteria>
1. SQL injection 취약점 확인
2. 인증 토큰 만료 처리 검증
3. 에러 메시지가 민감 정보를 노출하지 않는지 확인
</criteria>
<output_format>발견된 이슈 목록 + 각 이슈별 수정 제안</output_format>
GPT-5.5:
## Task
PR code review
## Context
Python Flask API, PostgreSQL, authentication module changes
## Success criteria
- SQL injection vulnerabilities identified
- Auth token expiration handling verified
- No sensitive data in error messages
## Output format
JSON: {issues: [{line, severity, description, suggestion}]}

▲ 2026년 프론티어 모델은 각각 다른 입력 구조에 최적화되어 있다(Claude는 XML 태그, GPT는 마크다운 헤딩)
기법 3. effort 파라미터를 API로 설정하라 (Opus 4.7)
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="claude-opus-4-7-20261016",
max_tokens=4096,
thinking={
"type": "adaptive",
"effort": "xhigh" # 코딩·에이전트 작업에 최적
# low, medium, high, xhigh, max 중 선택
},
messages=[
{"role": "user", "content": "이 인증 모듈의 보안 취약점을 분석해줘"}
]
)
effort 수준 가이드:
- low·medium: 분류, 단순 재작성, 룩업
- high: 대부분의 코딩 작업 기본값
- xhigh: 복잡한 코딩, 에이전트 작업 (권장)
- max: 고도 추론 필요 시 — 과사고(overthinking) 위험 있음
기법 4. 사전 Q&A로 명확화하기 (게으름 방지 선제 대응)
GPT-5.5의 단점인 "상세한 사전 계획·Q&A 과정이 필요"하다는 것을 역으로 활용한다.
이 작업을 시작하기 전에 명확히 해야 할 것들을 먼저 질문해줘.
그 다음 내 답변을 바탕으로 전체 범위를 확인하고 구현을 시작해줘.
이 패턴이 Claude Code가 열린 질문에서 강점을 보이는 방식이기도 하다.
모델이 스스로 불명확한 부분을 먼저 파악하게 한다.
기법 5. 네거티브 지시 대신 포지티브 지시
"마크다운 쓰지 마"보다 "일반 텍스트로 작성해줘"가 더 효과적이다.
"형식적으로 쓰지 마"보다 "비격식 구어체로, 축약형 사용해줘"가 더 정확한 결과를 낸다.
사례: 프롬프트 개선으로 코드 리뷰 품질 3배 향상
기존에 "PR 리뷰해줘" 단일 문장 프롬프트를 사용했다면,
이제는 XML 태그 구조화 + 명시적 체크리스트 + effort xhigh 파라미터 조합으로 전환하라.
이제는 성능 향상이 3배 이상으로 늘 것이다.
프롬프트 작성에 추가로 드는 시간은 단지 몇 분 뿐이다.
4. 모델별 "게으름" 대응 요약
| 문제 | GPT-5.5 대응 | Opus 4.7 대응 |
| 최소 수행 | 성공 기준 명시 + 사전 Q&A | effort xhigh + XML 태그 |
| 중간 수준 솔루션 | 체크리스트 + 출력 형식 명시 | 단계별 명령형 지시 |
| 범위 초과/미달 | 정확한 파일/함수 범위 지정 | 성공 기준 3개 이하로 제한 |
| 환각 위험 | 출처 불확실 시 명시 요청 | 불확실하면 "모른다"고 허용 |
마치며
GPT-5.5와 Opus 4.7 모두 "게으르다"는 불만을 받는다.
그런데 이것은 모델의 문제가 아니라 프롬프트의 문제인 경우가 대부분이다.
- 성공 기준을 명시하고,
- 모델별 최적 구조를 사용하며,
- API의 effort 파라미터를 활용하면
"게으른 AI"는 사라진다.
오늘 당장 한 가지만 바꾼다면:
프롬프트 끝에 "완료 기준: ..."을 한 줄 추가하는 것이다.
📎 참고 출처
- Anthropic 공식 프롬프팅 가이드: https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/claude-prompting-best-practices
- lushbinary.com: https://lushbinary.com/blog/advanced-prompt-engineering-techniques-developer-guide/
- sureprompts.com: https://sureprompts.com/blog/advanced-prompt-engineering-2026-claude-gpt5-gemini
- the-ai-corner.com: https://www.the-ai-corner.com/p/context-engineering-guide-2026
'AI' 카테고리의 다른 글
| GPT 5.5 Opus 4.7 멀티모델 라우팅 전략(feat. 비용 최적화) (0) | 2026.05.01 |
|---|---|
| GPT-Image-2 완전분석 — 이미지 모델이 드디어 추론을 시작했다 (1) | 2026.04.30 |
| GPT 5.5 vs. Claude Opus 4.7 완전비교 - 7일 차이로 출시된 두 플래그십 모델의 벤치마크·요금·실전 비교 (0) | 2026.04.28 |
| OpenCode 메인 코딩 에이전트 실전 가이드 - 오픈 소스 + 75개 제공자 + 커스텀 에이전트 (0) | 2026.04.27 |
| Claude Code, Codex, Copilot 역할별 분업 전략 실전편 - 기획은 Claude Code, 구현은 Codex, 코드 탐색은 GitHub Copilot (0) | 2026.04.24 |