HowtoAI
ai-tools2026-05-07 5 min read

Cursor 3.0 Agents Window 사용법 — 병렬 에이전트로 PR 자동화 7가지

🤖
HowtoAI 편집팀AI 전문 에디터

AI 기술을 누구나 쉽게 활용할 수 있도록 실전 가이드를 작성합니다. ChatGPT, Claude, AI 자동화, SEO 분야를 전문으로 다룹니다.

📅 2026-05-07⏱️ 5 min read🌐 how-toai.com
목차 보기

3월에 Cursor 2.x 쓰다가 4월 2일 3.0 업데이트 받고 나서 작업 흐름이 완전히 바뀌었어요. 가장 큰 변화는 Agents Window 추가. 같은 리팩터링 작업을 Claude Opus 4.7과 GPT-5.5에 동시에 던져서, 30분 후 둘 다 결과 보고 더 깔끔한 쪽만 머지하는 식이거든요.

처음엔 "그냥 GPT 따로 Claude 따로 돌리면 되지" 싶었는데, git worktree 자동 분기가 핵심이에요. 두 에이전트가 같은 파일을 수정해도 충돌 안 나요. 각자 별도 브랜치(checkout)에서 돌리니까. 이 글은 직접 한 달 써본 뒤 정리한 7가지 실전 워크플로우예요. Pro $20·Pro+ $60·Ultra $200 어떤 게 본인한테 맞는지도 실제 크레딧 소모량 기준으로 정리했어요.

Cursor 3.0 코드 에디터 화면 — Agents Window가 우측 사이드바에 도킹된 상태

Cursor 3.0 핵심 변화 3가지 (2026년 4월 기준)

3.0 출시 노트에서 반드시 알아야 할 변화만 추렸어요.

1. Agents Window — 병렬 에이전트 사이드바

기존 채팅창 옆에 Agents Window 패널이 새로 생겼어요. 여기서 에이전트 여러 개를 동시에 돌릴 수 있어요. 각 에이전트는 별도 git worktree에서 작동해서 파일 충돌 0%. 작업 끝나면 패널에서 diff 보고 하나만 main에 머지.

저는 보통 동시에 2~3개 돌려요. 더 돌리면 RAM 16GB로는 버벅대요(에이전트 1개당 ~1.5GB).

2. /worktree 명령어 — 채팅 분리

채팅 도중 /worktree feature-x 입력하면 나머지 대화가 별도 checkout에서 진행돼요. 메인 작업 하다가 "잠깐, 이건 다른 브랜치에서 실험해보자" 할 때 컨텍스트 안 잃어요. 끝나면 그 worktree만 PR 올리면 돼요.

3. /best-of-n — 같은 작업 N개 모델 동시 실행

/best-of-n 3 "이 함수를 더 효율적으로 리팩터링해줘" 입력하면 모델 3종이 같은 작업을 병렬로 처리. 결과 3개 비교 후 최선만 채택.

저는 테스트 코드 작성문서 생성에 주로 써요. 모델별 스타일 편차가 크거든요. Claude는 테스트 케이스 꼼꼼하고, GPT는 문서 자연스럽고, DeepSeek V4 Pro는 단순 짧음. 작업 성격 따라 채택.

Cursor 3.0 가격 6단계 — 본인한테 맞는 플랜 고르기

2025년 중반에 요청 쿼터(request quota) 모델에서 크레딧 풀 모델로 전환됐어요. 한 달에 쓸 수 있는 토큰 양이 달러로 환산돼서 풀에 들어 있고, 모델별로 다르게 차감되는 구조.

플랜가격크레딧 풀추천 대상
Hobby무료매우 제한가입만, 실사용 X
Pro$20/월$20어치주 5~10시간 코딩, 1인 개발자
Pro+$60/월$60어치 (3배)주 20시간+, 병렬 에이전트 자주
Ultra$200/월거의 무제한풀타임 + 대형 코드베이스
Teams$40/사용자팀 공유 풀5인 이상 스타트업
Enterprise커스텀협상50인+, SSO·감사 로그

저는 Pro 일주일 쓰다 풀 다 떨어져서 Pro+로 옮겼어요. 병렬 에이전트가 크레딧 3배 빨리 쓰는 게 결정적이었어요. /best-of-n 5번 정도만 돌려도 Pro 풀 1/3이 사라져요.

7가지 실전 워크플로우 — 한 달 직접 써본 결과

워크플로우 1. 리팩터링은 /best-of-n 3로 모델 비교

복잡한 함수 하나를 리팩터링할 때 무조건 3 모델 병렬로 돌려요. 명령어:

/best-of-n 3 src/utils/parser.ts 의 parseInput 함수를 더 효율적이고 타입 안전하게 리팩터링.
사이드 이펙트 없이, 기존 테스트 모두 통과하도록.

3개 결과 30~40초 후 도착. diff 보고 가장 깔끔한 거 선택. 시간 단축: 한 번에 5분 → 1분 30초. 크레딧: 단일 모델 대비 ~2.8배 (모델마다 토큰 단가 다름).

워크플로우 2. PR 자동화 — Agent 모드 + GitHub MCP

Agents Window에서 에이전트 하나를 background mode로 돌려요. GitHub MCP 서버 연결하고 프롬프트:

오픈된 PR #234 을 검토. 코드 스타일·잠재적 버그·테스트 커버리지 체크 후
인라인 커멘트 작성. 변경 큰 이슈는 별도 issue 생성.

이렇게 하면 PR 코멘트가 자동으로 달려요. 시간당 5~7개 PR 처리 가능. Claude 다른 글에서 다룬 n8n + Claude API 자동화 5단계와 결합하면 PR 머지·배포까지 풀 자동화 가능.

워크플로우 3. 테스트 작성은 GPT-5.5 단독

테스트 케이스는 GPT-5.5 한 모델만 쓰는 게 효율 좋아요. Claude·DeepSeek 결과가 너무 비슷해서 /best-of-n 의미 없음. 대신 단일 모델로 컨텍스트 길게 쓰는 게 더 좋음.

@codebase 의 src/services/auth/ 모듈 전체 분석 후
Vitest 단위 테스트 작성. 커버리지 90% 목표.
모든 edge case 포함, mock는 vi.mock 사용.

워크플로우 4. 문서 생성은 Claude Opus 4.7

API 문서·README·주석 보강은 Claude Opus 4.7 가 압도적이에요. 한국어 문체 자연스럽고, 기술 용어 정확. SWE-bench Verified 87.6% 라는 수치는 코드 이해력이 그만큼 깊다는 뜻.

저는 OpenAPI 스펙 → 한국어 README 변환에 자주 써요. 1500자 분량을 30초에 뽑아내고, 거의 손 안 대요.

워크플로우 5. 코드베이스 통째 리뷰 — Gemini 2.5 Pro 대용량 컨텍스트

전체 모놀리스 리뷰는 Gemini 2.5 Pro 가 압도적. 200K 컨텍스트로 한 번에 50~70 파일 분석.

@codebase 전체 분석. 다음 관점에서 개선 제안 5개:
1. 성능 병목 의심 지점 2. 타입 안전성 약한 부분
3. 테스트 미커버 비즈니스 로직 4. 보안 위험 5. 데드 코드

크레딧 많이 먹지만(한 번에 $23), 분기에 1번 돌리면 큰 그림 잡혀요.

워크플로우 6. /worktree 로 실험 분기 분리

한참 작업하다가 "이거 다른 라이브러리로 바꿔보면 어떨까" 싶을 때 /worktree experiment-zod-to-valibot 입력. 그 시점부터 새 worktree에서 대화 진행. 메인 작업 컨텍스트 그대로 유지되고, 실험 끝나면 PR 만들거나 버리거나.

이거 하나만으로 작업 흐름 분리가 매우 깨끗해요.

워크플로우 7. MCP는 코어 5개만 — 40 ceiling 회피

처음에 욕심내서 MCP 서버 12개 등록했다가 도구 60개 넘어서 끊겼어요. 지금은 코어 5개만:

  1. Filesystem (파일 읽기/쓰기) — 8 tools
  2. Git (브랜치·커밋·diff) — 6 tools
  3. GitHub (PR·이슈·리뷰) — 9 tools
  4. Memory (장기 컨텍스트) — 4 tools
  5. Brave Search (웹 검색) — 2 tools

합계 29 tools, 11 여유. 프로젝트별로 더 필요하면 .cursor/mcp.json 에 추가.

Cursor Agents Window에서 병렬로 돌아가는 에이전트 진행률 표시

모델별 토큰 단가 — 크레딧 효율 비교 (2026년 5월)

같은 작업을 어느 모델에 던지냐에 따라 크레딧 소모가 5배까지 차이나요.

모델인풋/1M아웃풋/1M컨텍스트추천 작업
Claude Opus 4.7$15$751M문서·복잡 리팩터링·아키텍처
GPT-5.5$5$15400K테스트·일반 코딩·디버깅
DeepSeek V4 Pro$0.5$2128K단순 변환·반복 작업·번역
Gemini 2.5 Pro$2.5$101M코드베이스 전체 분석

: 단순 변수명 변경·import 정리 같은 자잘한 일은 DeepSeek V4 Pro로 충분. 크레딧 30분의 1. 같은 ai-blog 다른 글 Cursor vs Windsurf 2026년 5월 $20 가격 비교도 함께 보면 다른 IDE 대안도 알 수 있어요.

크레딧 절감 5가지 실전 팁

1. 시스템 프롬프트로 모델 자동 선택 가이드

.cursor/rules/01-model-selection.md 에 작성:

- 단순 변환/import 정리: deepseek-v4-pro 사용
- 테스트 코드: gpt-5.5 사용
- 문서·복잡 리팩터링: claude-opus-4-7 사용
- 코드베이스 전체 분석: gemini-2.5-pro 사용

이렇게 두면 Cursor가 작업 성격 보고 자동으로 모델 추천. 풀 자동은 안 되고 모델명 클릭 한 번으로 바뀜.

2. /summarize 로 컨텍스트 압축

긴 채팅 30분 넘으면 컨텍스트가 무거워서 토큰 단가 올라요. /summarize 한 번 돌리면 핵심만 요약, 그 시점부터 새 대화 흐름. 인풋 토큰 70% 절감.

3. @codebase 대신 @file 명시

@codebase 호출하면 전체 인덱스 로드해서 토큰 폭증. 특정 파일만 필요하면 @file:src/utils/parser.ts 명시.

4. Background mode 활용

Agents Window 의 background mode 토글 켜면 실시간 응답 안 받고 백그라운드 처리. 모델이 batch 모드로 돌아서 단가 50% 할인. 단 결과 나오는 데 10~15분 걸림.

5. /best-of-n 은 정말 중요한 결정에만

매번 /best-of-n 3 돌리면 크레딧 3배 빨리 사라져요. 리팩터링·아키텍처 결정 같이 한 번 정하면 영향 큰 작업에만 사용. 자잘한 건 단일 모델.

흔한 실수 5가지 — 한 달 쓰면서 깨진 것들

실수 1. Pro $20 으로 시작했다 일주일 만에 풀 다 씀

병렬 에이전트 신기해서 매일 /best-of-n 5번씩 돌렸더니 5일째 풀 0. 처음 한 달은 Pro+ $60 으로 시작 권장.

실수 2. MCP 12개 등록 → 40 ceiling 충돌

도구 갯수 안 세고 다 켜놨더니 "Tools exceed 40 limit" 에러. 코어 5개로 줄임.

실수 3. /worktree 안 쓰고 메인 채팅에서 실험

실험적인 변경을 메인 채팅에서 하다가 컨텍스트 더러워짐. /worktree 로 분리했어야.

실수 4. 모든 모델에 /best-of-n — DeepSeek 결과는 보통 별로

DeepSeek V4 Pro 는 단가 압도적으로 싸지만, 복잡한 리팩터링은 Claude/GPT 가 훨씬 나아요. 작업 성격 안 보고 모든 모델 다 던지는 건 낭비.

실수 5. background mode 안 쓰고 batch 작업 실시간 처리

긴 작업(전체 코드베이스 분석 등)은 background mode 로 돌려야 단가 절반. 실시간 응답이 그렇게 중요하지 않으면 무조건 background.

마무리 — 5월 2일 Cursor vs Windsurf 비교와의 차이

지난 5월 2일에 Cursor 2.x vs Windsurf 비교 글을 썼는데, 5일 후 3.0 출시되며 격차가 더 벌어졌어요. 병렬 에이전트는 Windsurf에 없는 기능이고, /best-of-n 으로 모델 비교하는 워크플로우 자체가 Windsurf에선 불가능. 같은 가격대($20)라도 작업 효율은 1.5~2배 차이.

지금 IDE 고민 중이라면 Pro+ $60 한 달만 써보고 결정하시는 걸 추천해요. 첫 달은 풀 다 못 써도, 두 번째 달부터는 병렬 에이전트 흐름 익숙해지며 제 값 해요.

한국어 코딩 도구가 처음이라면: 같은 사이트의 클로드 코드 자동화 5가지 실전 사용기 부터 보고 흐름 익히고 Cursor로 넘어오는 게 낫습니다. CLI 자동화가 익숙해야 Cursor의 슬래시 명령어 체계가 자연스럽거든요.

❓ 자주 묻는 질문 (FAQ)

Cursor 3.0의 Agents Window는 기존 Composer와 뭐가 다른가요?

Composer는 한 번에 한 작업을 한 모델에게 시키는 구조였는데, Agents Window는 같은 작업을 여러 에이전트가 병렬로 git worktree 위에서 돌리는 구조예요. 예를 들어 리팩터링 하나를 Claude Opus 4.7·GPT-5.5·DeepSeek V4 Pro 세 모델에 동시에 던지고, 가장 깔끔한 결과만 PR로 머지할 수 있어요. 작업 하나당 시간 30~40% 단축, 단 크레딧은 3배 소모돼요.

Pro $20 플랜에서도 Agents Window 다 쓸 수 있나요?

Pro에서 기본 기능은 다 쓸 수 있어요. 다만 Pro는 크레딧 풀 $20어치라 병렬 에이전트 몇 번 돌리면 금방 소진. 헤비 유저는 Pro+ $60(3배 풀) 또는 Ultra $200을 써야 해요. 저는 처음에 Pro 쓰다 일주일 만에 풀 다 쓰고 Pro+로 옮겼어요.

/best-of-n 명령어는 정확히 어떻게 동작하나요?

/best-of-n 3 prompt 형태로 입력하면 같은 프롬프트를 모델 3종에 동시 실행해요. n은 2~5까지 가능. 각 결과는 별도 worktree(브랜치)에 저장되고, 사이드바에서 diff 비교 후 채택할 결과 하나만 main에 머지. 코드 품질이 모델별로 편차 큰 작업(테스트 작성·문서 생성)에 효과적이에요.

기존 VSCode 단축키는 그대로 쓸 수 있나요?

Cursor는 VSCode fork라 단축키 99% 호환돼요. Cmd+P, Cmd+Shift+P, 멀티 커서, 익스텐션까지 그대로. 단 Agents Window 호출은 신규 단축키 Cmd+Shift+A. /worktree·/best-of-n 같은 슬래시 명령어는 채팅 입력창에서 / 누르면 자동완성 떠요.

MCP 도구 40개 제한이 있다는데 실제로 부딪히나요?

기본 MCP 서버 5~6개(Filesystem·Git·Brave Search·Memory 등) 쓰면 도구가 25~30개 정도라 여유 있어요. 다만 Slack·Linear·Notion·Postgres 풀 세팅하면 50개 넘어가서 끊겨요. 해결법 ① 자주 쓰는 도구만 enabled: true 명시 ② cursor.mcp.json에 server별로 토글 ③ 프로젝트별 .cursor/mcp.json 분리. 40 ceiling은 단일 컨텍스트 안에서 한 번에 노출되는 도구 수 제한.

📚 함께 읽으면 좋은 글 (Related Posts)

AI 도구 추천 더 보기 →