인사이트

20 February 2026

VESSL Cloud에서 OpenClaw 개인 비서 실행해보기

AI 비서를 하나 만들어볼까 한 번쯤 생각해 보셨죠? OpenClaw와 VESSL Cloud를 조합하면 GPU 없이도, 터미널 몇 줄만으로 나만의 AI 비서를 바로 띄울 수 있어요.

VESSL Cloud에서 OpenClaw 개인 비서 실행해보기

VESSL Cloud에서 OpenClaw 개인 비서 실행해보기

“AI 비서를 하나 만들어볼까?” 한 번쯤 생각해 보셨죠? OpenClaw와 VESSL Cloud를 조합하면 GPU 없이도, 터미널 몇 줄만으로 나만의 AI 비서를 바로 띄울 수 있어요.

요약

  • VESSL Cloud 워크스페이스에서 OpenClaw를 API 모드로 실행하는 방법을 알려드려요.
  • 기본 언어 모델은 openai/gpt-5.2를 써요.
  • 대화의 맥락은 OpenClaw의 기본 세션과 메모리 기능으로 자연스럽게 이어가요.
  • 텔레그램 연동은 선택 사항이지만, 개인 비서로 쓰기 편해서 설정 방법을 함께 담았어요.

누가 읽으면 좋을까요?

AI 비서를 직접 만드는 일, 생각보다 어렵지 않아요. 특히 이런 분들께 추천해요.

  • AI를 나만의 똑똑한 비서처럼 실용적으로 쓰고 싶은 분
  • 값비싼 GPU를 쓰기 전에, 요청부터 작업 실행까지 비서의 업무 흐름이 잘 작동하는지 먼저 확인해보고 싶은 팀
  • 복잡한 설정 없이 빠르고 안정적으로 시작하고 싶은 분

비서가 할 수 있는 일과 없는 일

이런 걸 할 수 있어요

  • 이전 대화의 맥락을 기억하고, 부족한 정보만 콕 집어 물어봐요.
  • 바로 실행할 수 있도록 체크리스트와 입력값을 깔끔하게 정리해줘요.
  • 알맞게 설정해두면, 중간에 멈춘 작업도 이어서 처리해요.

이런 건 아직 못해요

  • 별도의 커스텀 툴 연동이나 사용자의 최종 승인 없이는 결제, 예약, 주문을 알아서 완료하지 않아요.

안전한 사용을 위한 원칙

  • 되돌리기 어려운 중요한 작업은 반드시 마지막에 한 번 더 확인을 거쳐요.

시작하기 전에

본격적으로 시작하기 전, 세 가지만 준비해 주세요. VESSL Cloud 워크스페이스가 처음이라면 VESSL Cloud 시작 가이드를 먼저 읽어보시길 권해요.

  • VESSL 워크스페이스 만들기: CPU Only 환경에서 Workspace volume은 /root, Shared volume은 /shared로 설정하고 Custom port에 18789를 추가해 주세요.
Workspace setup
  • VESSL workspace 터미널 열기
VESSL Cloud workspace 터미널 열기
  • 이 가이드는 OpenAI 단일 경로 기준이라 OPENAI_API_KEY만 준비하면 됩니다.

4단계로 빠르게 끝내는 OpenClaw 설정

이제 본격적으로 시작해볼게요. 아래의 4단계를 순서대로 따라오시면 OpenClaw 게이트웨이가 켜지고, API로 대화를 나눌 수 있어요. 단계별로 하는 일이 명확해서 생각보다 훨씬 쉬워요.

1단계: 패키지 설치하기 (최초 1회)

가장 먼저 필요한 패키지를 설치하고 OpenClaw CLI를 준비해요. 워크스페이스를 처음 만들었을 때 한 번만 실행하면 돼요.

export PATH="$HOME/.local/bin:$PATH"
ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'
apt-get update
apt-get install -y npm python3-pip curl
command -v openclaw >/dev/null || (curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method npm)

만약 openclaw에서 Node 버전 에러가 뜬다면, 아래 명령어로 Node 22를 설치해 주세요.

curl -fsSL https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
export NVM_DIR="$HOME/.nvm"
. "$NVM_DIR/nvm.sh"
nvm install 22
nvm use 22
nvm alias default 22
Download OpenClaw on VESSL Cloud

2단계: API 키를 안전하게 보관하기

키가 터미널 기록에 남지 않게 하고, OPENAI_API_KEY를 secrets 파일에 저장해 이후 단계에서 source로 불러오세요.

unset HISTFILE
export HISTFILE=/dev/null HISTSIZE=0 HISTFILESIZE=0
set +o history
read -s -p "OPENAI_API_KEY: " OPENAI_API_KEY; echo
set -o history

if [ -z "${OPENAI_API_KEY}" ]; then
  echo "OPENAI_API_KEY를 입력해야 합니다." >&2
  exit 1
fi

umask 077
cat > /root/.demo_secrets <<EOF2
export OPENAI_API_KEY="${OPENAI_API_KEY}"
export OPENAI_MODEL="gpt-5.2"
export OPENCLAW_GATEWAY_TOKEN="demo123"
EOF2
unset OPENAI_API_KEY

3단계: OpenClaw 게이트웨이 켜기

이제 OpenClaw를 실행할 차례예요. 게이트웨이를 LAN 모드로 연결하고, 아까 열어둔 Custom Port 18789를 통해 외부에서도 접속할 수 있게 만들게요.

source /root/.demo_secrets
openclaw config set gateway.mode local
openclaw config set gateway.bind lan
openclaw config set gateway.port 18789
openclaw config set agents.defaults.model.primary "openai/gpt-5.2"
openclaw gateway --bind lan --port 18789 --allow-unconfigured --token "$OPENCLAW_GATEWAY_TOKEN"

모델 설정: 이 글 기준 기본값은 openai/gpt-5.2로 유지하세요.

# Default model for this guide
openclaw config set agents.defaults.model.primary "openai/gpt-5.2"
참고: workspace 터미널에서 게이트웨이가 18789 포트를 리슨 중인지 먼저 확인하세요 (`ss -lntp | grep 18789`). 그 다음 Connect 탭의 port 18789 External Link로 외부 접속을 확인하면 됩니다.

4단계: 잘 작동하는지 확인하기 (스모크 테스트)

마지막으로, AI 모델이 대답을 잘 하는지 빠르게 확인해볼게요. 결과는 /shared 폴더에 저장되기 때문에, 워크스페이스를 잠시 멈췄다(Pause) 다시 켜도(Resume) 그대로 남아있어요.

source /root/.demo_secrets
python -m pip install -q openai
mkdir -p /shared/demo/output
python - <<'PY'
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
r = client.responses.create(
    model="gpt-5.2",
    input="Write 5 short blog hook lines for a cloud workspace demo. Max 12 words per line.")
text = r.output_text.strip()
path = "/shared/demo/output/hooks.txt"
with open(path, "w", encoding="utf-8") as f:
    f.write(text + "\n")
print(path)
print(text)
PY

저장된 결과 확인하기

ls -lh /shared/demo/output
cat /shared/demo/output/hooks.txt
View the outputs from an OpenClaw agent

수고하셨어요! 여기까지 따라오셨다면 OpenClaw와 VESSL Cloud의 기본 설정이 모두 끝난 거예요. 🎉 아래부터는 이 AI를 진짜 '내 비서'처럼 쓰기 위한 팁들을 알려드릴게요.

나만의 비서로 만드는 '맥락 기억' 설정

진짜 비서라면 이전 대화를 기억해야겠죠? OpenClaw의 세션과 메모리 기능을 쓰면 대화의 맥락이 자연스럽게 이어져요. 가끔 비서가 내 말을 잊어버리는 것 같다면, 보통 아래 세 가지 이유 때문일 확률이 높아요.

  • 상태를 저장하지 않는(stateless) 커스텀 릴레이를 쓸 때
  • 프로세스가 다시 시작되면서 세션 경로가 바뀌었을 때
  • 여러 채널을 쓸 때 세션 정책이 설정되지 않았을 때

가장 추천하는 방법은 처음 한 번만 워크스페이스 메모리와 세션 정책을 설정해두는 거예요. 아주 간단하고 안정적이랍니다.

1. 한 번만 설정하는 컨텍스트 (권장)

아래 두 파일은 비서가 '나'를 기억하게 해주는 핵심 요소예요. 꺾쇠(< >)로 표시된 부분을 내 정보로 바꿔서 실행해 주세요.

WSP="$HOME/.openclaw/workspace"
mkdir -p "$WSP/memory"

cat > "$WSP/USER.md" <<'EOF2'
name: <본인 이름>
preferred_language: <선호 언어, 예: Korean>
primary_goal: <비서 용도, 예: personal assistant for scheduling and research>
EOF2

cat > "$WSP/MEMORY.md" <<'EOF2'
- <기본 응답 언어 규칙, 예: Reply in Korean by default.>
- <주요 작업 패턴, 예: For meeting requests, check calendar conflicts first.>
- Before irreversible actions, return:
  1) ready-to-execute checklist
  2) pre-filled details
  3) final confirmation question
- Never claim an action is complete without tool confirmation.
EOF2

설정 직후 아래 검증을 한 번 실행해 주세요.

openclaw config get session.dmScope
openclaw config get session.reset.mode
openclaw hooks check

마지막으로 채팅에서 /context를 한 번 실행해 워크스페이스 규칙이 로드됐는지 확인하세요.

예시: 쇼핑 비서를 원한다면 primary_goal: shopping assistant로 적고, MEMORY.md에 "빠진 정보만 먼저 물어봐줘" 같은 규칙을 넣어요. 일정 관리 비서라면 primary_goal: calendar manager로 쓰고 "회의를 잡기 전에 겹치는 일정이 없는지 확인해줘" 같은 규칙을 넣으면 좋아요.

2. 세션 정책 설정 (개인용 기본값)

openclaw config set session.dmScope main
# 호환성용 선택 키(대부분 환경에서 필수는 아님)
openclaw config set session.mainKey main
openclaw config set session.reset.mode idle
openclaw config set session.reset.idleMinutes 10080

main은 개인 비서에서 가장 단순하고 안정적인 기본값이에요.

session.mainKey는 호환성을 위한 선택값이라 대부분 환경에서는 필수가 아니에요.

개인 사용 전용 권장 설정입니다. 두 명 이상이 DM할 수 있다면 per-channel-peer로 바꿔 맥락 누수를 막아주세요.

(참고) 여러 명이 함께 쓸 때의 설정

openclaw config set session.dmScope per-channel-peer

공용 봇에서 다른 사람의 대화 내용이 섞이지 않게 막아주는 설정이에요.

3. 메모리 자동 저장 켜기 (선택)

openclaw config set hooks.internal.enabled true
openclaw hooks enable session-memory
openclaw hooks enable boot-md
openclaw hooks check
  • session-memory: 대화가 새로 시작(/new)될 때마다 지금까지의 맥락을 자동으로 저장해요.
  • boot-md: 게이트웨이가 켜질 때 BOOT.md에 적힌 동작을 알아서 실행해줘요.

재시작 스마트하게 하기: Pause와 Resume

VESSL Cloud의 가장 큰 장점 중 하나는 바로 Pause(일시정지)와 Resume(재개) 기능이에요. 쓰지 않을 땐 꺼둬서 컴퓨팅 비용을 아끼면서, 파일과 설정은 그대로 간직할 수 있죠.

단, 한 가지 주의할 점이 있어요. Resume으로 다시 켰을 때, 이전에 돌던 프로그램들이 알아서 다시 켜지진 않아요.

  • Pause: 컴퓨팅이 멈추고 비용이 청구되지 않지만, 스토리지는 그대로 유지돼요.
  • Resume: 다시 컴퓨팅이 시작돼요. 단, 프로세스는 수동으로 켜야 해요.

매번 명령어를 치기 번거로우니, 재시작 스크립트를 한 번 만들어두는 걸 추천해요.

cat >/root/resume_openclaw.sh <<'EOF'
#!/usr/bin/env bash
set -euo pipefail

[ -f /root/.demo_secrets ] && source /root/.demo_secrets || true
export PATH="$HOME/.local/bin:$PATH"

# Load nvm/node if present
export NVM_DIR="$HOME/.nvm"
if [ -s "$NVM_DIR/nvm.sh" ]; then
  . "$NVM_DIR/nvm.sh"
  nvm use 22 >/dev/null 2>&1 || true
fi
hash -r

# Ensure openclaw is available
if ! command -v openclaw >/dev/null 2>&1; then
  if command -v npm >/dev/null 2>&1; then
    npm install -g openclaw@latest
  else
    ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'
    apt-get update
    apt-get install -y npm curl
    npm install -g openclaw@latest
  fi
  hash -r
fi

exec openclaw gateway --bind lan --port 18789 --allow-unconfigured --token "${OPENCLAW_GATEWAY_TOKEN:-demo123}"
EOF
chmod +x /root/resume_openclaw.sh

`bash /root/resume_openclaw.sh` 한 줄로 재시작 가능 (동일 workspace, 사전 설정 완료 기준)

bash /root/resume_openclaw.sh

텔레그램 연동하기

지금까지 설정한 것만으로도 OpenClaw는 훌륭하게 작동해요. 하지만 평소 쓰는 메신저로 비서와 대화하고 싶다면 텔레그램을 연결해보세요. OpenClaw가 자체 지원하는 텔레그램 채널을 쓰는 게 가장 좋아요.

set +o history
read -s -p "TELEGRAM_BOT_TOKEN: " TELEGRAM_BOT_TOKEN; echo
set -o history

TG_TOKEN_FILE="$HOME/.openclaw/.telegram_bot_token"
install -d -m 700 "$(dirname "$TG_TOKEN_FILE")"
printf "%s" "$TELEGRAM_BOT_TOKEN" > "$TG_TOKEN_FILE"
chmod 600 "$TG_TOKEN_FILE"
unset TELEGRAM_BOT_TOKEN

openclaw config set channels.telegram.enabled true
openclaw config set channels.telegram.tokenFile "$TG_TOKEN_FILE"
openclaw config set channels.telegram.dmPolicy pairing

준비가 끝났다면 아래 순서대로 텔레그램을 연결해요.

  1. 게이트웨이를 실행해요.
  2. 터미널에 openclaw pairing list telegram을 입력해요.
  3. 코드가 나오면 openclaw pairing approve telegram <코드>를 입력해 승인해요.

참고: 커스텀 파이썬 릴레이 (고급 설정, 맥락 유실 주의)

공식 텔레그램 채널을 도저히 쓸 수 없는 환경에서만 제한적으로 써주세요. 커스텀 릴레이는 대화 맥락이 쉽게 끊어질 수 있어요.

커스텀 relay가 꼭 필요한 경우에는 아래 공식 문서를 기준으로 구성하세요.

기본 권장 경로는 native Telegram 채널 + pairing입니다.

문제가 생겼을 땐 이렇게 해결해요

  • E: ... git-lfs ... not signed 에러가 날 경우:
ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'
  1. openclaw: command not found 에러가 나요
    1. 1단계 패키지 설치를 다시 한 번 실행해 주세요.
  2. openclaw requires Node >=22.12 에러가 나요
    1. 1단계에 있는 nvm 명령어로 Node 22 버전을 설치하고 터미널을 껐다 켜주세요.
  3. OPENAI_API_KEY missing 에러가 나요
    1. 2단계를 다시 실행하고, source /root/.demo_secrets 명령어를 입력해 주세요.
  4. 모델을 사용할 수 없어요, 에러가 나요.
    1. OPENAI_API_KEY가 있는지와 모델 ID 문자열이 정확한지 확인하세요. 현재 환경에서 openai/gpt-5.2가 불가능하면 계정에서 사용 가능한 OpenAI 모델 ID로 agents.defaults.model.primary를 갱신하세요.
  5. 다시 시작했더니 비서가 이전 대화를 까먹었어요
    1. 게이트웨이가 켜진 호스트와 워크스페이스가 같은지 확인하고, 세션 초기화(reset) 정책을 점검해 보세요.
  6. 메신저 채널마다 비서의 대답 방식이 달라요
    1. dmScope 설정과 계정 연결(identity linking) 정책을 확인해 보세요.
  7. 텔레그램에서 바로 앞선 대화를 기억하지 못해요
    1. 커스텀 릴레이를 쓰고 있어서 맥락 저장이 안 될 수 있어요. 공식 텔레그램 채널 기능을 쓰는 걸 권장해요.
  8. 중요하게 설정해둔 규칙을 자꾸 잊어버려요
    1. MEMORY.md 파일에 제대로 적혀있는지 확인하고 게이트웨이를 다시 켜주세요. /context 명령어를 쳐서 규칙을 잘 불러왔는지 확인할 수도 있어요.

비용과 로컬 구축 비교 (API 비용 제외)

  • 참고로 이 가이드에 안내된 방법은 외부 AI 모델의 API 사용 비용은 포함하지 않아요.
  • 클라우드 인프라 비용은 워크스페이스를 켜둔 시간과 저장소(볼륨) 비용으로 계산돼요. (VESSL Cloud의 시간당 $0.3인 CPU를 골라 한 달에 50시간 정도 쓴다면 월 $15 정도 나와요.)

VESSL Cloud vs 로컬 기기 (Mac Mini, 노트북 등)

비서를 언제든 부르기 위해 집에 있는 컴퓨터를 서버로 쓸 수도 있죠. 어떤 차이가 있을까요?

  • 내 컴퓨터로 직접 만들기
    • 장점: 집에 남는 컴퓨터가 있다면 추가 클라우드 비용이 0원이에요.
    • 단점: 24시간 내내 컴퓨터를 켜둬야 해요. 밖에서 텔레그램으로 접속하려면 Cloudflare Tunnel 같은 복잡한 네트워크 설정을 직접 해줘야 해서 꽤 번거로워요.
  • VESSL Cloud 쓰기
    • 장점: 내 컴퓨터를 혹사시킬 필요가 없고, 포트 설정 하나면 복잡한 네트워크 작업 없이 외부 접속이 끝나요. 안 쓸 땐 Pause 버튼을 눌러 비용을 아낄 수 있어요.
    • 단점: 아주 저렴하긴 하지만, 켜둔 시간만큼은 클라우드 사용료가 나가요.

마치며

최근 OpenClaw 같은 프로젝트 덕분에 "나만의 똑똑한 AI 비서를 만들어 볼까?"라는 생각에 불씨가 지펴지는 것 같아요. 앞으로도 AI를 활용한 재밌고 놀라운 프로젝트들이 계속 등장하겠죠. VESSL AI도 이런 흐름에 발맞춰, 여러분의 멋진 AI 아이디어가 현실이 되도록 든든한 인프라가 되어 드릴게요.

참고 자료

Wayne Kim

Wayne Kim

Product Marketer

VESSL Cloud에서 써보기

Try VESSL today

Build, train, and deploy models faster at scale with fully managed infrastructure, tools, and workflows.

Get Started

Recommeded posts

MLOps for high-performance ML teams

© 2026 VESSL AI, Inc. All rights reserved.