터미널에서 AI와 함께 코드를 작성하는 방식이 빠르게 확산되고 있습니다. Claude Code가 사실상 이 분야의 기준점을 세운 이후로, 다양한 오픈소스 도구들이 등장하기 시작했습니다. 그중에서도 OpenCode는 GitHub에서 12만 개가 넘는 스타를 받으며 가장 빠르게 성장한 프로젝트 중 하나입니다. Anomaly 팀이 만든 이 도구는 Neovim 사용자들이 주도해 개발했으며, 터미널 인터페이스에 최대한 공을 들인 것이 특징입니다.
이 리뷰는 Windows + WSL 환경을 기준으로 작성했습니다. OpenCode를 직접 설치하고 써보면서 느낀 장점과 아쉬운 점, 가격 구조, 그리고 Claude Code와의 차이점을 솔직하게 정리했습니다.
OpenCode가 뭔지
OpenCode는 터미널에서 동작하는 오픈소스 AI 코딩 에이전트입니다. MIT 라이선스로 공개되어 있으며, 특정 AI 제공자에 묶여 있지 않다는 것이 가장 큰 차별점입니다. Anthropic, OpenAI, Google, Groq, AWS Bedrock, Azure OpenAI, OpenRouter 등 75개 이상의 제공자와 모델을 지원합니다.
핵심 인터페이스는 TUI(Terminal User Interface)입니다. Bubble Tea 라이브러리로 만든 대화형 터미널 화면에서 AI에게 질문하고, 코드를 수정하고, 파일을 탐색할 수 있습니다. 동시에 헤드리스 서버 모드로도 실행할 수 있어서, 모바일 앱이나 웹 인터페이스에서 원격으로 제어하는 것도 가능합니다.
12만+
GitHub 스타
75+
지원 LLM 제공자
MIT
라이선스
무료
도구 자체 가격
GitHub에서 opencode-ai/opencode 레포를 검색하면 아카이브된 구버전이 나옵니다. 이 레포는 현재 charmbracelet/crush로 이전되었습니다. 이 리뷰에서 다루는 현재 활성 프로젝트는 anomalyco/opencode이며, 공식 사이트는 opencode.ai입니다.
핵심 기능
OpenCode는 단순한 AI 채팅 도구가 아닙니다. 코딩 작업에 필요한 실질적인 기능들을 터미널 안에서 모두 처리할 수 있도록 설계되어 있습니다.
TUI 인터페이스
Bubble Tea 기반 대화형 터미널 화면. Vim 스타일 단축키 지원
75+ 모델 지원
Anthropic, OpenAI, Google, Groq, AWS Bedrock 등 제공자 전방위 지원
LSP 내장
Language Server Protocol 지원으로 실시간 코드 진단 가능
커스텀 에이전트
목적별 에이전트를 JSON으로 정의하고 도구 권한을 세밀하게 제어
클라이언트/서버 구조
서버 모드로 실행하면 모바일·웹에서 원격 접속 가능
MCP 지원
Model Context Protocol로 외부 도구·서비스 연결 확장
TUI 인터페이스
터미널을 실행하면 채팅 화면이 바로 뜹니다. 왼쪽에는 세션 목록, 오른쪽에는 현재 대화가 표시됩니다. @파일명 형식으로 특정 파일을 대화에 첨부할 수 있고, Tab 키로 계획(Plan) 모드와 빌드(Build) 모드를 전환할 수 있습니다. 계획 모드에서는 AI가 실제 파일을 수정하지 않고 변경 계획만 제안합니다.
$ opencode ╭─────────────────────────────────────────╮ │ OpenCode v0.4.x │ │ /path/to/your/project │ │ │ │ /connect 모델 연결 │ │ /models 모델 선택 │ │ /init 프로젝트 초기화 │ │ /help 도움말 │ ╰─────────────────────────────────────────╯ >
/undo 명령어를 쓰면 AI가 변경한 파일을 이전 상태로 되돌릴 수 있습니다. 내부적으로 Git을 사용하는 방식이라 프로젝트가 Git 저장소여야 합니다. /share 명령어로 현재 세션의 링크를 생성해서 팀원과 공유하는 것도 가능합니다.
LSP 내장 지원
OpenCode는 Language Server Protocol을 기본으로 지원합니다. 언어 서버를 연결하면 AI가 diagnostics 도구를 통해 코드 오류를 실시간으로 확인하고 수정 방향을 제안할 수 있습니다. TypeScript, Go, Python 등 LSP를 지원하는 모든 언어에서 활용할 수 있습니다.
{
"$schema": "https://opencode.ai/config.json",
"lsp": {
"typescript-language-server": {
"command": "typescript-language-server",
"args": ["--stdio"]
},
"go": {
"command": "gopls"
}
}
}커스텀 에이전트와 도구 권한
프로젝트 루트의 opencode.json 파일로 목적별 에이전트를 정의할 수 있습니다. 예를 들어 코드 리뷰 전용 에이전트에는 파일 쓰기 권한을 막고, 빌드 에이전트에는 bash 실행을 허용하는 방식으로 세밀하게 제어할 수 있습니다.
{
"$schema": "https://opencode.ai/config.json",
"model": "anthropic/claude-sonnet-4-20250514",
"agent": {
"build": {
"mode": "primary",
"model": "anthropic/claude-sonnet-4-20250514",
"tools": {
"write": true,
"edit": true,
"bash": true
}
},
"code-reviewer": {
"mode": "subagent",
"model": "anthropic/claude-sonnet-4-20250514",
"prompt": "You are a code reviewer. Focus on security and performance.",
"tools": {
"write": false,
"edit": false
}
}
}
}지원 모델
OpenCode는 AI SDK와 Models.dev를 통해 75개 이상의 LLM 제공자와 연동됩니다. 공식 문서에서 코딩 에이전트와 궁합이 좋다고 검증한 추천 모델 목록도 제공합니다.
| 모델 | 제공자 | 특징 |
|---|---|---|
| Claude Sonnet 4.5 | Anthropic | 속도와 코딩 성능 균형 |
| Claude Opus 4.5 | Anthropic | 최고 코딩 성능 |
| GPT 5.2 | OpenAI | 범용 고성능 |
| GPT 5.1 Codex | OpenAI | 코딩 특화 |
| Gemini 3 Pro | 긴 컨텍스트 처리 | |
| Kimi K2.5, MiniMax M2.5 등 | Go 플랜 | 저비용 오픈소스 |
TUI에서 /models 명령어를 입력하면 현재 연결된 제공자의 모든 모델 목록이 표시됩니다. opencode models anthropic 형식으로 CLI에서 특정 제공자 모델만 조회할 수도 있습니다.
Windows + WSL 설치 방법
OpenCode는 공식적으로 Windows 네이티브도 지원하지만, Chocolatey나 Scoop, npm을 통해 설치할 수 있습니다. 공식 문서는 WSL 사용을 권장합니다. 파일 시스템 성능과 터미널 통합 품질이 WSL 환경에서 훨씬 좋기 때문입니다.
사전 준비
- WSL2 설치 (Microsoft 공식 가이드 참조)
- WSL 내에서 현대적인 터미널 에뮬레이터 권장 (WezTerm, Alacritty 등)
- 사용할 AI 제공자의 API 키 (Anthropic, OpenAI 등)
스크롤 근처에서 인터랙션이 활성화됩니다.
WSL 터미널을 열고 아래 명령어 중 하나로 설치합니다.
curl -fsSL https://opencode.ai/install | bashnpm install -g opencode-aibrew install anomalyco/tap/opencode스크롤 근처에서 인터랙션이 활성화됩니다.
설치 후 Windows 드라이브의 프로젝트 폴더로 이동해서 실행합니다. C 드라이브는 /mnt/c/ 경로로 접근합니다.
$ cd /mnt/c/Users/YourName/projects/my-app $ opencode # 또는 WSL 홈 디렉터리에 프로젝트를 두면 성능이 더 좋습니다 $ cd ~/code/my-app $ opencode
Windows 드라이브(/mnt/c/ 등)보다 WSL 파일 시스템(~/ 아래) 안에 레포를 클론하면 파일 I/O 성능이 훨씬 빠릅니다. 새 프로젝트라면 처음부터 WSL 경로에 만드는 것을 권장합니다.
모델 연결은 TUI 안에서 /connect 명령어를 입력하고 제공자를 선택한 뒤 API 키를 붙여 넣으면 됩니다. 자격증명은 ~/.local/share/opencode/auth.json에 저장됩니다.
장단점
OpenCode를 써보면서 실제로 느낀 장점과 아쉬운 점을 정리했습니다. 특히 Claude Code와 비교하며 어디서 차이가 나는지 주목해서 봤습니다.
OpenCode 장단점
👍 장점
- ✓100% 오픈소스 (MIT 라이선스) — 코드 전체를 직접 확인하고 수정할 수 있습니다
- ✓특정 제공자에 종속되지 않음 — Claude, GPT, Gemini, 로컬 모델까지 자유롭게 전환 가능
- ✓LSP 기본 내장 — 언어 서버 연결 시 AI가 실시간 코드 오류를 인지하고 수정
- ✓커스텀 에이전트 구성 — 목적별 에이전트와 세밀한 도구 권한 설정
- ✓클라이언트/서버 분리 — 서버는 리눅스에, 클라이언트는 어디서든 접속 가능
- ✓MCP 지원 — 외부 도구 연동 확장성
- ✓/undo·/redo 지원 — AI 변경을 Git 수준에서 즉시 되돌리기 가능
- ✓세션 공유 기능 — 팀원과 AI 대화 맥락을 링크로 공유
👎 단점
- ✗TUI 진입장벽 — GUI에 익숙한 개발자에게 처음엔 낯설 수 있습니다
- ✗Windows 네이티브 경험은 제한적 — WSL 사용을 강하게 권장하는 수준
- ✗초기 모델 연결 설정이 다소 번거로움 — 제공자별로 따로 연결해야 합니다
- ✗현재 LSP 연동은 진단(diagnostics)만 AI에 노출 — 자동완성 등은 아직 미노출
- ✗Go 플랜 사용 제한 — 5시간/주/월 단위로 사용량 상한이 있습니다
- ✗프로젝트가 Git 저장소여야 /undo가 작동
OpenCode 평가
가격
OpenCode 자체는 무료입니다. 비용은 사용하는 AI 모델의 API 사용료에서 발생합니다. 초보자를 위해 OpenCode 팀은 두 가지 자체 유료 서비스를 운영합니다.
직접 API 연결
무료 (모델 사용료 별도)
- ✓OpenCode 도구 자체 무료
- ✓Anthropic, OpenAI, Google 등 직접 연결
- ✓API 키만 있으면 즉시 사용 가능
- ✓모델 사용료는 각 제공자 기준
OpenCode Zen
$20 충전 (종량제)
- ✓OpenCode 팀이 검증한 프리미엄 모델 접속
- ✓Claude, GPT, Gemini 등 포함
- ✓잔액 $5 미만 시 자동 충전 ($20 단위)
- ✓월 지출 한도 설정 가능
- ✓데이터 zero-retention 보장
OpenCode Go (Beta)
$5 첫 달 / 이후 $10/월
- ✓오픈소스 모델 전용 저비용 구독
- ✓Kimi K2.5, MiniMax M2.5/M2.7, GLM-5 등
- ✓5시간 $12 / 주 $30 / 월 $60 사용 한도
- ✓미국·EU·싱가포르 서버 운영
- ✓데이터 zero-retention 보장
프리미엄 모델(Claude, GPT)을 쓰고 싶고 종량제를 선호한다면 Zen, 저비용으로 오픈소스 모델을 안정적으로 쓰고 싶다면 Go를 선택합니다. 두 서비스 모두 완전 선택 사항이며 기존 API 키와 병행 사용할 수 있습니다.
Claude Code와 비교
OpenCode 공식 문서에는 "Claude Code와 기능 면에서 매우 유사하지만 몇 가지 핵심 차이가 있다"고 직접 명시되어 있습니다. 실제로 사용해보면 두 도구의 접근 방식이 상당히 다릅니다.
OpenCode
- •100% 오픈소스 (MIT)
- •75+ 모델 제공자 지원 — 제공자 무종속
- •LSP 기본 내장
- •커스텀 에이전트 JSON 설정
- •클라이언트/서버 분리 아키텍처
- •Zen $20 충전 / Go $10/월 (선택)
Claude Code
- •Anthropic 독점 (Claude 모델만)
- •Claude Pro/Max 구독 필요 ($20/월~)
- •LSP 없음
- •에이전트 설정 방식 다름
- •단일 프로세스 구조
- •Anthropic 계정 필수
자율적인 멀티 파일 에이전틱 작업에서는 Claude Code가 아직 한발 앞서 있다는 평가가 많습니다. 하지만 OpenCode는 특정 제공자에 종속되지 않고 원하는 모델을 자유롭게 쓸 수 있다는 점에서 실무 유연성이 훨씬 높습니다.
버전 히스토리
2025년 하반기
opencode-ai/opencode 초기 공개
Go 기반 CLI로 시작. Bubble Tea TUI, 다중 AI 제공자 지원. 빠르게 GitHub 스타 급증
2026년 초
anomalyco/opencode 브랜드 재정립
opencode.ai 공식 사이트 런칭. 클라이언트/서버 아키텍처, OpenCode Zen 서비스 시작
2026년 초
opencode-ai/opencode 아카이브
원래 레포는 charmbracelet/crush로 이전. anomalyco/opencode가 현재 메인 프로젝트
2026년 3~4월
OpenCode Go 베타, LSP 강화
오픈소스 모델 전용 저비용 구독 Go 베타 출시. GitHub 스타 12만 돌파. 공식 문서 다국어 지원
누구에게 추천하는지
OpenCode가 특히 잘 맞는 사람과 맞지 않는 사람을 분명히 나눌 수 있습니다.
추천합니다
터미널을 주 작업 환경으로 쓰는 개발자라면 OpenCode의 TUI가 즉시 손에 익습니다. 특히 여러 AI 제공자를 프로젝트마다 다르게 쓰고 싶거나, Claude 하나에 종속되고 싶지 않은 경우에 가장 잘 맞습니다. 오픈소스라 내부를 직접 뜯어볼 수 있고, 자체 서버에서 실행하거나 CI 파이프라인에 통합하고 싶은 경우에도 OpenCode가 유리합니다. LSP를 통한 실시간 진단 연동이 필요한 TypeScript, Go 개발자에게도 Claude Code보다 명확한 장점이 있습니다.
비추천합니다
터미널이 낯설고 GUI 기반 IDE를 선호한다면 OpenCode보다 Cursor나 Windsurf 같은 에디터 기반 도구가 더 적합합니다. Claude 모델을 가장 심도 있게 활용하고 싶고, 복잡한 자율 에이전틱 작업을 주로 한다면 현시점에서는 Claude Code가 한발 앞서 있습니다. 설정 없이 바로 쓰기를 원한다면 OpenCode의 초기 구성이 다소 번거롭게 느껴질 수 있습니다.
자주 묻는 질문
OpenCode와 Claude Code는 무슨 차이인가요?
Claude Code는 Anthropic이 만든 유료 서비스로 Claude 모델만 사용할 수 있습니다. OpenCode는 오픈소스로 누구나 무료로 쓸 수 있으며, Anthropic, OpenAI, Google 등 75개 이상의 제공자를 자유롭게 전환할 수 있습니다. LSP 내장과 클라이언트/서버 아키텍처도 OpenCode의 독자적 강점입니다.
Windows에서 그냥 설치해서 쓸 수 있나요?
네, Chocolatey나 Scoop, npm으로 Windows 네이티브 설치가 가능합니다. 하지만 공식 문서는 WSL 사용을 강하게 권장합니다. 파일 시스템 성능과 터미널 호환성 면에서 WSL 환경이 훨씬 안정적입니다.
API 키가 없어도 쓸 수 있나요?
GitHub Copilot 구독이 있다면 별도 API 키 없이 연결할 수 있습니다. 또한 Ollama를 로컬에 설치하면 인터넷 연결 없이 무료로 오픈소스 모델을 실행할 수 있습니다. OpenCode Zen은 첫 충전 $20(+카드 수수료)부터 시작합니다.
로컬 모델도 쓸 수 있나요?
네. Ollama, LM Studio, 또는 OpenAI 호환 엔드포인트를 자체 호스팅하면 LOCAL_ENDPOINT 환경변수로 연결할 수 있습니다. 인터넷 없이 완전히 오프라인으로도 사용 가능합니다.
OpenCode Zen과 Go 중 어느 것을 골라야 하나요?
Claude, GPT, Gemini 같은 프리미엄 모델을 종량제로 쓰고 싶다면 Zen($20 충전). 저비용으로 오픈소스 모델(Kimi, MiniMax 등)을 안정적으로 쓰고 싶다면 Go(첫 달 $5, 이후 $10/월)를 선택합니다. 두 서비스 모두 선택 사항이며 직접 API 키로 연결해서 쓰는 것도 완전히 가능합니다.
현재 GitHub의 opencode-ai/opencode 레포는 어떻게 된 건가요?
해당 레포는 아카이브되었습니다. 원래 개발자는 charmbracelet/crush 프로젝트로 이전했습니다. 현재 이 리뷰에서 다루는 OpenCode는 anomalyco 팀의 opencode.ai 기반 프로젝트(anomalyco/opencode)입니다.
스크롤 근처에서 인터랙션이 활성화됩니다.
Claude Code vs Codex — 터미널 AI 코딩 에이전트 비교
Claude Code와 OpenAI Codex CLI를 벤치마크, 가격, 아키텍처, 실제 워크플로우 기준으로 비교했습니다. 어떤 터미널 AI 코딩 에이전트가 내 개발 환경에 맞는지 판단하는 데 도움이 됩니다.
Claude Code 완벽 가이드
Claude Code의 설치부터 CLI 명령어, 단축키, 설정, MCP, 서브에이전트까지 모든 기능을 한 곳에 정리했습니다.
AI 코딩 도구 가격 총정리 (2026년 4월)
Claude, Cursor, Windsurf, GitHub Copilot, OpenAI Codex, Bolt.new, Lovable, v0, Google AI Studio 9개 AI 코딩 도구의 무료·유료 플랜 가격과 사용 한도를 한 곳에 정리했습니다.
