Midjourney v7 vs GPT Image 1.5 vs Stable Diffusion 3.5 — 2026년 5월 이미지 AI 3파전
Midjourney v7·GPT Image 1.5·Stable Diffusion 3.5를 2026년 5월 기준으로 가격·이미지 품질·한국어 프롬프트 정확도·상업 라이선스 4축 비교. 시나리오별 최강 도구를 정리한 실전 가이드.
AI 기술을 누구나 쉽게 활용할 수 있도록 실전 가이드를 작성합니다. ChatGPT, Claude, AI 자동화, SEO 분야를 전문으로 다룹니다.
3월에 Cursor 2.x 쓰다가 4월 2일 3.0 업데이트 받고 나서 작업 흐름이 완전히 바뀌었어요. 가장 큰 변화는 Agents Window 추가. 같은 리팩터링 작업을 Claude Opus 4.7과 GPT-5.5에 동시에 던져서, 30분 후 둘 다 결과 보고 더 깔끔한 쪽만 머지하는 식이거든요.
처음엔 "그냥 GPT 따로 Claude 따로 돌리면 되지" 싶었는데, git worktree 자동 분기가 핵심이에요. 두 에이전트가 같은 파일을 수정해도 충돌 안 나요. 각자 별도 브랜치(checkout)에서 돌리니까. 이 글은 직접 한 달 써본 뒤 정리한 7가지 실전 워크플로우예요. Pro $20·Pro+ $60·Ultra $200 어떤 게 본인한테 맞는지도 실제 크레딧 소모량 기준으로 정리했어요.

3.0 출시 노트에서 반드시 알아야 할 변화만 추렸어요.
기존 채팅창 옆에 Agents Window 패널이 새로 생겼어요. 여기서 에이전트 여러 개를 동시에 돌릴 수 있어요. 각 에이전트는 별도 git worktree에서 작동해서 파일 충돌 0%. 작업 끝나면 패널에서 diff 보고 하나만 main에 머지.
저는 보통 동시에 2~3개 돌려요. 더 돌리면 RAM 16GB로는 버벅대요(에이전트 1개당 ~1.5GB).
채팅 도중 /worktree feature-x 입력하면 나머지 대화가 별도 checkout에서 진행돼요. 메인 작업 하다가 "잠깐, 이건 다른 브랜치에서 실험해보자" 할 때 컨텍스트 안 잃어요. 끝나면 그 worktree만 PR 올리면 돼요.
/best-of-n 3 "이 함수를 더 효율적으로 리팩터링해줘" 입력하면 모델 3종이 같은 작업을 병렬로 처리. 결과 3개 비교 후 최선만 채택.
저는 테스트 코드 작성과 문서 생성에 주로 써요. 모델별 스타일 편차가 크거든요. Claude는 테스트 케이스 꼼꼼하고, GPT는 문서 자연스럽고, DeepSeek V4 Pro는 단순 짧음. 작업 성격 따라 채택.
2025년 중반에 요청 쿼터(request quota) 모델에서 크레딧 풀 모델로 전환됐어요. 한 달에 쓸 수 있는 토큰 양이 달러로 환산돼서 풀에 들어 있고, 모델별로 다르게 차감되는 구조.
| 플랜 | 가격 | 크레딧 풀 | 추천 대상 |
|---|---|---|---|
| Hobby | 무료 | 매우 제한 | 가입만, 실사용 X |
| Pro | $20/월 | $20어치 | 주 5~10시간 코딩, 1인 개발자 |
| Pro+ | $60/월 | $60어치 (3배) | 주 20시간+, 병렬 에이전트 자주 |
| Ultra | $200/월 | 거의 무제한 | 풀타임 + 대형 코드베이스 |
| Teams | $40/사용자 | 팀 공유 풀 | 5인 이상 스타트업 |
| Enterprise | 커스텀 | 협상 | 50인+, SSO·감사 로그 |
저는 Pro 일주일 쓰다 풀 다 떨어져서 Pro+로 옮겼어요. 병렬 에이전트가 크레딧 3배 빨리 쓰는 게 결정적이었어요. /best-of-n 5번 정도만 돌려도 Pro 풀 1/3이 사라져요.
복잡한 함수 하나를 리팩터링할 때 무조건 3 모델 병렬로 돌려요. 명령어:
/best-of-n 3 src/utils/parser.ts 의 parseInput 함수를 더 효율적이고 타입 안전하게 리팩터링.
사이드 이펙트 없이, 기존 테스트 모두 통과하도록.
3개 결과 30~40초 후 도착. diff 보고 가장 깔끔한 거 선택. 시간 단축: 한 번에 5분 → 1분 30초. 크레딧: 단일 모델 대비 ~2.8배 (모델마다 토큰 단가 다름).
Agents Window에서 에이전트 하나를 background mode로 돌려요. GitHub MCP 서버 연결하고 프롬프트:
오픈된 PR #234 을 검토. 코드 스타일·잠재적 버그·테스트 커버리지 체크 후
인라인 커멘트 작성. 변경 큰 이슈는 별도 issue 생성.
이렇게 하면 PR 코멘트가 자동으로 달려요. 시간당 5~7개 PR 처리 가능. Claude 다른 글에서 다룬 n8n + Claude API 자동화 5단계와 결합하면 PR 머지·배포까지 풀 자동화 가능.
테스트 케이스는 GPT-5.5 한 모델만 쓰는 게 효율 좋아요. Claude·DeepSeek 결과가 너무 비슷해서 /best-of-n 의미 없음. 대신 단일 모델로 컨텍스트 길게 쓰는 게 더 좋음.
@codebase 의 src/services/auth/ 모듈 전체 분석 후
Vitest 단위 테스트 작성. 커버리지 90% 목표.
모든 edge case 포함, mock는 vi.mock 사용.
API 문서·README·주석 보강은 Claude Opus 4.7 가 압도적이에요. 한국어 문체 자연스럽고, 기술 용어 정확. SWE-bench Verified 87.6% 라는 수치는 코드 이해력이 그만큼 깊다는 뜻.
저는 OpenAPI 스펙 → 한국어 README 변환에 자주 써요. 1500자 분량을 30초에 뽑아내고, 거의 손 안 대요.
전체 모놀리스 리뷰는 Gemini 2.5 Pro 가 압도적. 200K 컨텍스트로 한 번에 50~70 파일 분석.
@codebase 전체 분석. 다음 관점에서 개선 제안 5개:
1. 성능 병목 의심 지점 2. 타입 안전성 약한 부분
3. 테스트 미커버 비즈니스 로직 4. 보안 위험 5. 데드 코드
크레딧 많이 먹지만(한 번에 $23), 분기에 1번 돌리면 큰 그림 잡혀요.
한참 작업하다가 "이거 다른 라이브러리로 바꿔보면 어떨까" 싶을 때 /worktree experiment-zod-to-valibot 입력. 그 시점부터 새 worktree에서 대화 진행. 메인 작업 컨텍스트 그대로 유지되고, 실험 끝나면 PR 만들거나 버리거나.
이거 하나만으로 작업 흐름 분리가 매우 깨끗해요.
처음에 욕심내서 MCP 서버 12개 등록했다가 도구 60개 넘어서 끊겼어요. 지금은 코어 5개만:
합계 29 tools, 11 여유. 프로젝트별로 더 필요하면 .cursor/mcp.json 에 추가.

같은 작업을 어느 모델에 던지냐에 따라 크레딧 소모가 5배까지 차이나요.
| 모델 | 인풋/1M | 아웃풋/1M | 컨텍스트 | 추천 작업 |
|---|---|---|---|---|
| Claude Opus 4.7 | $15 | $75 | 1M | 문서·복잡 리팩터링·아키텍처 |
| GPT-5.5 | $5 | $15 | 400K | 테스트·일반 코딩·디버깅 |
| DeepSeek V4 Pro | $0.5 | $2 | 128K | 단순 변환·반복 작업·번역 |
| Gemini 2.5 Pro | $2.5 | $10 | 1M | 코드베이스 전체 분석 |
팁: 단순 변수명 변경·import 정리 같은 자잘한 일은 DeepSeek V4 Pro로 충분. 크레딧 30분의 1. 같은 ai-blog 다른 글 Cursor vs Windsurf 2026년 5월 $20 가격 비교도 함께 보면 다른 IDE 대안도 알 수 있어요.
.cursor/rules/01-model-selection.md 에 작성:
- 단순 변환/import 정리: deepseek-v4-pro 사용
- 테스트 코드: gpt-5.5 사용
- 문서·복잡 리팩터링: claude-opus-4-7 사용
- 코드베이스 전체 분석: gemini-2.5-pro 사용
이렇게 두면 Cursor가 작업 성격 보고 자동으로 모델 추천. 풀 자동은 안 되고 모델명 클릭 한 번으로 바뀜.
긴 채팅 30분 넘으면 컨텍스트가 무거워서 토큰 단가 올라요. /summarize 한 번 돌리면 핵심만 요약, 그 시점부터 새 대화 흐름. 인풋 토큰 70% 절감.
@codebase 호출하면 전체 인덱스 로드해서 토큰 폭증. 특정 파일만 필요하면 @file:src/utils/parser.ts 명시.
Agents Window 의 background mode 토글 켜면 실시간 응답 안 받고 백그라운드 처리. 모델이 batch 모드로 돌아서 단가 50% 할인. 단 결과 나오는 데 10~15분 걸림.
매번 /best-of-n 3 돌리면 크레딧 3배 빨리 사라져요. 리팩터링·아키텍처 결정 같이 한 번 정하면 영향 큰 작업에만 사용. 자잘한 건 단일 모델.
병렬 에이전트 신기해서 매일 /best-of-n 5번씩 돌렸더니 5일째 풀 0. 처음 한 달은 Pro+ $60 으로 시작 권장.
도구 갯수 안 세고 다 켜놨더니 "Tools exceed 40 limit" 에러. 코어 5개로 줄임.
실험적인 변경을 메인 채팅에서 하다가 컨텍스트 더러워짐. /worktree 로 분리했어야.
DeepSeek V4 Pro 는 단가 압도적으로 싸지만, 복잡한 리팩터링은 Claude/GPT 가 훨씬 나아요. 작업 성격 안 보고 모든 모델 다 던지는 건 낭비.
긴 작업(전체 코드베이스 분석 등)은 background mode 로 돌려야 단가 절반. 실시간 응답이 그렇게 중요하지 않으면 무조건 background.
지난 5월 2일에 Cursor 2.x vs Windsurf 비교 글을 썼는데, 5일 후 3.0 출시되며 격차가 더 벌어졌어요. 병렬 에이전트는 Windsurf에 없는 기능이고, /best-of-n 으로 모델 비교하는 워크플로우 자체가 Windsurf에선 불가능. 같은 가격대($20)라도 작업 효율은 1.5~2배 차이.
지금 IDE 고민 중이라면 Pro+ $60 한 달만 써보고 결정하시는 걸 추천해요. 첫 달은 풀 다 못 써도, 두 번째 달부터는 병렬 에이전트 흐름 익숙해지며 제 값 해요.
한국어 코딩 도구가 처음이라면: 같은 사이트의 클로드 코드 자동화 5가지 실전 사용기 부터 보고 흐름 익히고 Cursor로 넘어오는 게 낫습니다. CLI 자동화가 익숙해야 Cursor의 슬래시 명령어 체계가 자연스럽거든요.
Composer는 한 번에 한 작업을 한 모델에게 시키는 구조였는데, Agents Window는 같은 작업을 여러 에이전트가 병렬로 git worktree 위에서 돌리는 구조예요. 예를 들어 리팩터링 하나를 Claude Opus 4.7·GPT-5.5·DeepSeek V4 Pro 세 모델에 동시에 던지고, 가장 깔끔한 결과만 PR로 머지할 수 있어요. 작업 하나당 시간 30~40% 단축, 단 크레딧은 3배 소모돼요.
Pro에서 기본 기능은 다 쓸 수 있어요. 다만 Pro는 크레딧 풀 $20어치라 병렬 에이전트 몇 번 돌리면 금방 소진. 헤비 유저는 Pro+ $60(3배 풀) 또는 Ultra $200을 써야 해요. 저는 처음에 Pro 쓰다 일주일 만에 풀 다 쓰고 Pro+로 옮겼어요.
/best-of-n 3 prompt 형태로 입력하면 같은 프롬프트를 모델 3종에 동시 실행해요. n은 2~5까지 가능. 각 결과는 별도 worktree(브랜치)에 저장되고, 사이드바에서 diff 비교 후 채택할 결과 하나만 main에 머지. 코드 품질이 모델별로 편차 큰 작업(테스트 작성·문서 생성)에 효과적이에요.
Cursor는 VSCode fork라 단축키 99% 호환돼요. Cmd+P, Cmd+Shift+P, 멀티 커서, 익스텐션까지 그대로. 단 Agents Window 호출은 신규 단축키 Cmd+Shift+A. /worktree·/best-of-n 같은 슬래시 명령어는 채팅 입력창에서 / 누르면 자동완성 떠요.
기본 MCP 서버 5~6개(Filesystem·Git·Brave Search·Memory 등) 쓰면 도구가 25~30개 정도라 여유 있어요. 다만 Slack·Linear·Notion·Postgres 풀 세팅하면 50개 넘어가서 끊겨요. 해결법 ① 자주 쓰는 도구만 enabled: true 명시 ② cursor.mcp.json에 server별로 토글 ③ 프로젝트별 .cursor/mcp.json 분리. 40 ceiling은 단일 컨텍스트 안에서 한 번에 노출되는 도구 수 제한.