Cursor Cloud Agents — 퇴근해도 코드를 짜는 AI 개발자가 등장했다
코드를 짜주는 AI는 이미 익숙하다. 하지만 코드를 짜고, 서버를 띄우고, 브라우저를 열어 직접 클릭해보고, 테스트까지 통과시킨 뒤 PR을 올려주는 AI는 어떤가. Cursor가 2026년 2월 말에 발표한 Cloud Agents가 정확히 그 일을 한다.
채팅하는 AI에서 일하는 AI로
기존 AI 코딩 도구의 한계는 명확했다. 코드를 "제안"할 뿐, 실제로 "실행"하지 못했다. 개발자가 제안을 받아 로컬에서 빌드하고, 브라우저를 열어 확인하고, 테스트를 돌리고, 에러를 고치는 루프를 반복해야 했다.
Cloud Agents는 이 루프 전체를 가져간다. 개발자에게 돌아오는 건 완성된 PR과 증거물이다.
Cloud Agents가 하는 일
Cloud Agent는 독립적인 가상 머신(VM) 환경을 할당받아 다음 과정을 자율적으로 수행한다.
1. 코드 작성 및 수정
사용자의 요구사항을 받으면 전체 코드베이스를 파악하고 코드를 작성한다. 단일 파일 수정이 아니라 프로젝트 맥락을 이해한 상태에서 여러 파일에 걸친 변경을 처리한다.
2. Computer Use — 직접 브라우저를 조작한다
여기서부터 기존 AI 도구와 결정적으로 갈린다.
| 기존 AI 코딩 도구 | Cloud Agents |
|---|---|
| 코드 제안까지만 | 코드 작성 + 실행 + 검증 |
| 개발자가 직접 브라우저 확인 | 에이전트가 localhost:3000 접속해서 확인 |
| 빌드 에러 시 개발자가 수정 | 에이전트가 스스로 수정 반복 |
| 결과물은 코드 diff | 결과물은 PR + 시연 영상 + 스크린샷 |
에이전트가 직접 브라우저를 열고, 버튼을 클릭하고, 폼을 입력하고, UI가 의도대로 동작하는지 눈으로(정확히는 스크린 캡처로) 확인한다. Anthropic의 Computer Use 기술이 코딩 에이전트와 결합된 형태다.
[💡 잠깐! 이 용어는?] Computer Use: AI가 사람처럼 마우스와 키보드를 조작해 컴퓨터를 직접 사용하는 기술. 스크린샷을 보고 다음 행동을 결정하는 방식으로 작동한다.
3. 자율적인 테스트와 자기 수정
코드를 작성한 뒤 빌드가 되는지, 테스트가 통과하는지 직접 확인한다. 실패하면 에러 로그를 분석해 코드를 수정하고 다시 시도한다. 이 반복(iteration)을 사람 개입 없이 자율적으로 수행한다.
에이전트 작업 루프:
코드 작성 → 빌드 → 실패 → 에러 분석 → 수정 → 빌드 → 성공
↓
테스트 실행 → 실패 → 수정 → 재실행 → 성공
↓
브라우저 검증 → PR 제출
4. 결과물 리포트
작업이 끝나면 단순히 코드만 던져주지 않는다. PR과 함께 다음을 증거물(Artifacts)로 제출한다.
- 시연 영상: 에이전트가 직접 브라우저를 조작하며 기능을 확인한 녹화본
- 스크린샷: 주요 화면 상태 캡처
- 실행 로그: 빌드, 테스트, 에러 수정 과정의 전체 기록
리뷰어는 코드를 로컬에 내려받아 실행해볼 필요 없이, 영상만 보고 판단할 수 있다.
cursor.com/onboard 데모가 보여주는 것
Cursor가 공개한 데모 페이지는 Cloud Agent의 온보딩 과정을 보여준다.
Onboarding: 에이전트가 처음 프로젝트에 투입됐을 때 코드베이스를 읽고 환경 설정을 스스로 마치는 과정이다. 의존성 설치, 환경 변수 설정, 개발 서버 구동까지 사람이 README를 읽고 하는 일을 에이전트가 대신한다.
Recording a Demo: 에이전트가 실제 브라우저를 조작해 기능을 구현하고 검증하는 전 과정을 녹화한다. 이 녹화본이 PR에 첨부되어 리뷰어에게 전달된다.
시작하기 — 설정부터 첫 에이전트 실행까지
요금제 확인
Cloud Agents는 Pro 플랜($20/월) 이상에서 사용할 수 있다. Pro 플랜 기준으로 매월 약 $20 상당의 에이전트 모델 추론량이 포함된다(Sonnet 4 기준 약 225회, Gemini 기준 약 550회). 초과 시 API 요금으로 추가 구매 가능하다.
| 플랜 | 가격 | Cloud Agents | 포함량 |
|---|---|---|---|
| Hobby (무료) | $0 | 제한적 | 소량 요청 |
| Pro | $20/월 | 사용 가능 | ~$20 상당 추론량 |
| Pro+ | $200/월 | 사용 가능 | 3배 사용량 |
| Business | 별도 | 사용 가능 | 팀 관리 + 대시보드 |
환경 설정 — .cursor/environment.json
에이전트가 내 프로젝트를 제대로 실행하려면 환경 정보를 알려줘야 한다. 프로젝트 루트에 .cursor/environment.json 파일을 만든다.
{
"install": "npm install",
"start": "npm run dev",
"terminals": [
{
"name": "dev-server",
"command": "npm run dev",
"port": 3000
}
],
"env": {
"NODE_ENV": "development"
}
}각 필드의 역할은 다음과 같다.
| 필드 | 역할 | 예시 |
|---|---|---|
install | 의존성 설치 명령. VM 부팅 시 1회 실행되며 디스크 상태가 캐시된다 | npm install, bun install |
start | 환경 시작 시 실행할 명령 | npm run dev |
terminals | 에이전트 작업 중 백그라운드로 실행할 프로세스(dev 서버, 파일 워처 등) | port 지정 가능 |
env | 원격 환경에 주입할 환경 변수 | NODE_ENV, API_URL 등 |
API 키 같은 시크릿은 이 파일에 넣지 않는다. Cursor 대시보드의 설정 페이지에서 암호화된 상태로 별도 주입한다.
설정이 끝나면 Cursor에서 "Snapshot disk" 버튼을 눌러 디스크 상태를 캐시할 수 있다. 스냅샷 ID가 environment.json에 기록되며, 이후 에이전트 부팅이 거의 즉시 완료된다.
에이전트 실행 — 5가지 진입점
Cloud Agents는 다양한 곳에서 실행할 수 있다.
1. Cursor 에디터
가장 직관적인 방법이다. 에디터에서 Agent 패널을 열고 작업을 설명하면 된다.
"로그인 페이지에 소셜 로그인 버튼을 추가해줘.
Google, GitHub 두 가지를 지원하고
기존 이메일 로그인 폼 아래에 배치해."
에이전트가 VM을 띄우고, 리포를 클론하고, 의존성을 설치하고, 작업을 시작한다.
2. 웹 대시보드 (cursor.com/agents)
브라우저에서 리포지토리를 선택하고 작업을 지시한다. 에디터를 열지 않아도 되므로 모바일에서도 가능하다.
3. Slack
Slack 채널에서 @Cursor를 멘션하고 작업을 설명한다. 에이전트는 Slack 스레드 전체를 맥락으로 읽고 작업을 수행한 뒤 GitHub에 PR을 올린다.
@Cursor 설정 페이지에 다크 모드 토글을 추가해줘
[💡 잠깐! 이 용어는?]
Slack Integration: Cursor가 Slack Marketplace에 등록한 봇. 채널에 추가하면 @Cursor 멘션으로 에이전트를 호출할 수 있다.
4. GitHub 연동
GitHub 이슈나 PR 코멘트에서 에이전트를 트리거할 수 있다.
5. API
프로그래밍 방식으로 에이전트를 실행하고 싶다면 Cloud Agents API를 사용한다. 웹훅으로 작업 완료 알림도 받을 수 있다.
작업 과정 모니터링
에이전트가 작업 중일 때 "Open VM" 버튼을 클릭하면 에이전트의 가상 환경에 실시간으로 접속할 수 있다. 라이브 코딩 세션을 지켜보는 것과 같다. 물론 지켜보지 않아도 된다 — 노트북을 닫고 나중에 결과만 확인해도 된다.
결과 확인 — PR과 증거물
에이전트가 작업을 마치면 다음이 전달된다.
- GitHub PR — 별도 브랜치에 머지 가능한 상태로 올라온다
- 시연 영상 — 에이전트가 직접 브라우저를 조작하며 기능을 확인한 녹화본
- 스크린샷 — UI 상태 캡처
- 빌드/테스트 로그 — 전체 실행 과정 기록
리뷰 워크플로우는 단순하다. PR을 열고, 영상을 30초 보고, 코드 diff를 확인하고, 문제없으면 머지한다. 추가 수정이 필요하면 에이전트에게 후속 지시를 보내면 된다.
빠른 시작 체크리스트
- Cursor Pro 플랜 이상 확인
cursor.com/onboard에서 가이드 설정 진행.cursor/environment.json작성 후 리포에 커밋- Cursor에 GitHub/GitLab 리포 읽기·쓰기 권한 부여
- 시크릿(API 키 등)은 Cursor 대시보드에서 설정
- 디스크 스냅샷으로 부팅 속도 최적화
- 에디터, 웹, Slack 중 원하는 곳에서 첫 에이전트 실행
- PR과 영상 확인 후 머지
왜 게임 체인저인가
비연결성 — 노트북을 꺼도 된다
클라우드 VM에서 돌아가므로 내 컴퓨터를 켜둘 필요가 없다. 이슈를 할당하고 퇴근하면 다음 날 아침에 PR이 올라와 있다. 개발자의 시간과 에이전트의 시간이 분리된다.
병렬 작업 — 동시에 여러 버그를 잡는다
여러 개의 Cloud Agent를 동시에 실행할 수 있다. 버그 5개를 각각 다른 에이전트에게 맡기면 5개가 병렬로 처리된다. 순차적으로 하나씩 해결하던 방식과는 처리량 자체가 다르다.
검증 비용 절감 — 영상으로 리뷰한다
가장 실용적인 변화다. 기존에는 PR을 리뷰하려면 코드를 내려받고, 브랜치를 체크아웃하고, 빌드하고, 브라우저에서 확인해야 했다. Cloud Agents의 PR에는 시연 영상이 붙어 있으므로 영상을 보고 "잘 작동하네"라고 판단하면 바로 머지할 수 있다.
현실적인 수치
Cursor 팀 내부에서는 이미 전체 PR의 30% 이상을 Cloud Agents가 처리하고 있다고 밝혔다. 자체 도구를 자체 개발에 투입하는 dogfooding 단계를 넘어, 실제 프로덕션 워크플로우의 상당 부분을 AI가 담당하고 있는 셈이다.
[💡 잠깐! 이 용어는?] Dogfooding: 자사 제품을 자사 직원이 직접 사용하는 것. "Eating your own dog food"에서 유래했다. 제품 품질을 검증하는 가장 직접적인 방법이다.
기존 도구와의 비교
| GitHub Copilot | Claude Code | Cursor Cloud Agents | |
|---|---|---|---|
| 코드 작성 | 자동 완성 | 자율 작성 | 자율 작성 |
| 실행 환경 | 로컬 (에디터 내) | 로컬 (터미널) | 클라우드 VM |
| 브라우저 테스트 | 불가 | 불가 | 자율 수행 |
| 비동기 작업 | 불가 | 제한적 | 완전 지원 |
| 결과물 | 코드 제안 | 코드 + 커밋 | PR + 영상 + 로그 |
| 사람 개입 | 매 순간 | 주요 분기점 | 리뷰 시점만 |
Claude Code나 Copilot이 "페어 프로그래밍 파트너"라면, Cloud Agents는 "독립적으로 일하는 주니어 개발자"에 가깝다. 지시를 내리고 결과를 검토하는 관계다.
남은 질문들
물론 장밋빛만은 아니다.
- 복잡한 아키텍처 결정은 아직 사람의 영역이다. Cloud Agents가 잘하는 건 명확한 스펙이 있는 기능 구현과 버그 수정이다.
- 보안 리뷰를 에이전트가 생성한 코드에 대해 어떻게 보장할 것인가. 영상으로 "동작함"은 확인할 수 있지만, 코드 품질과 보안은 별개 문제다.
- 비용 구조가 아직 불투명하다. 독립 VM을 할당받는 만큼 단순 API 호출보다 비용이 높을 수밖에 없다.
- 디버깅이 어려운 케이스 — 에이전트가 자기 수정 루프에서 빠져나오지 못하는 상황에 대한 안전장치가 필요하다.
마무리
Cursor Cloud Agents가 보여주는 방향은 명확하다. AI가 코드를 "제안"하는 단계에서 코드를 "납품"하는 단계로 넘어가고 있다. 개발자의 역할이 "코드를 짜는 사람"에서 "코드를 검토하고 방향을 잡는 사람"으로 이동하는 흐름이 가속된다.
아직은 명확한 스펙의 구현과 반복적인 버그 수정에 강하고, 복잡한 설계 판단에는 한계가 있다. 하지만 PR의 30%를 이미 처리하고 있다는 수치가 말해주듯, "실험적 기능"이 아니라 "실전 도구"로 진입한 상태다.
코드를 짜는 시간이 줄어드는 게 아니다. 코드를 짜는 주체가 바뀌고 있다.
관심 있을 만한 포스트
VS Code 팀의 AI 에이전트 병렬화 — 월간 릴리스를 주간으로 만든 워크플로우
VS Code 팀이 월간 릴리스에서 주간 릴리스로 전환한 비결. 에이전트 세션 병렬화, 자동화 파이프라인, 품질 게이트 설계 전반을 공개했다.
코드를 치는 손에서 지시를 내리는 입으로 — Spotify가 AI 개발을 증명한 방법
Spotify가 내부 AI 시스템 Honk과 Claude Code를 활용해 개발 워크플로우를 근본적으로 바꾼 사례를 분석한다.
회의론자의 전향 — Steve Yegge가 그리는 AI 에이전트 시대의 생존 지도
실리콘밸리 베테랑 Steve Yegge가 말하는 AI 에이전트 시대의 핵심 주장과 엔지니어에게 주는 시사점을 정리한다.
Long-Distance NES — VS Code Copilot이 커서 너머까지 코드를 고치는 방법
VS Code Copilot의 Next Edit Suggestions가 파일 전체로 확장되면서, 멀리 떨어진 코드도 자동으로 제안하는 기술적 배경을 분석한다.
Claude Code 원격 제어 — 커피 마시면서 코딩시키는 시대가 열렸다
Claude Code의 Remote Control 기능으로 스마트폰에서 로컬 코딩 세션을 제어할 수 있게 되었다.
새벽 3시의 탐조등 — Google SRE가 Gemini CLI로 장애를 잡는 법
Google Cloud SRE 팀이 Gemini CLI를 장애 대응 워크플로우에 통합한 방법, 효과, 한계를 분석한다.
Claude Code 에이전트 팀 — 여러 AI가 협업하는 새로운 방식
Claude Code의 에이전트 팀을 정리했다. 설정법, 사용 사례, 10만 줄 C 컴파일러 구축 실전 사례, 훅을 활용한 품질 관리, 토큰 비용 분석까지 다룬다.
JiTTesting — AI가 코드를 쓰는 시대, 테스트는 누가 하나
Meta가 제안한 Just-in-Time Testing은 에이전트가 생성한 코드를 LLM이 그때그때 테스트하는 새로운 패러다임이다.