20 February 2026
AI 비서를 하나 만들어볼까 한 번쯤 생각해 보셨죠? OpenClaw와 VESSL Cloud를 조합하면 GPU 없이도, 터미널 몇 줄만으로 나만의 AI 비서를 바로 띄울 수 있어요.

“AI 비서를 하나 만들어볼까?” 한 번쯤 생각해 보셨죠? OpenClaw와 VESSL Cloud를 조합하면 GPU 없이도, 터미널 몇 줄만으로 나만의 AI 비서를 바로 띄울 수 있어요.
openai/gpt-5.2를 써요.AI 비서를 직접 만드는 일, 생각보다 어렵지 않아요. 특히 이런 분들께 추천해요.
이런 걸 할 수 있어요
이런 건 아직 못해요
안전한 사용을 위한 원칙
본격적으로 시작하기 전, 세 가지만 준비해 주세요. VESSL Cloud 워크스페이스가 처음이라면 VESSL Cloud 시작 가이드를 먼저 읽어보시길 권해요.
CPU Only 환경에서 Workspace volume은 /root, Shared volume은 /shared로 설정하고 Custom port에 18789를 추가해 주세요.

이제 본격적으로 시작해볼게요. 아래의 4단계를 순서대로 따라오시면 OpenClaw 게이트웨이가 켜지고, API로 대화를 나눌 수 있어요. 단계별로 하는 일이 명확해서 생각보다 훨씬 쉬워요.
가장 먼저 필요한 패키지를 설치하고 OpenClaw CLI를 준비해요. 워크스페이스를 처음 만들었을 때 한 번만 실행하면 돼요.
export PATH="$HOME/.local/bin:$PATH"
ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'
apt-get update
apt-get install -y npm python3-pip curl
command -v openclaw >/dev/null || (curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method npm)만약 openclaw에서 Node 버전 에러가 뜬다면, 아래 명령어로 Node 22를 설치해 주세요.
curl -fsSL https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
export NVM_DIR="$HOME/.nvm"
. "$NVM_DIR/nvm.sh"
nvm install 22
nvm use 22
nvm alias default 22
키가 터미널 기록에 남지 않게 하고, OPENAI_API_KEY를 secrets 파일에 저장해 이후 단계에서 source로 불러오세요.
unset HISTFILE
export HISTFILE=/dev/null HISTSIZE=0 HISTFILESIZE=0
set +o history
read -s -p "OPENAI_API_KEY: " OPENAI_API_KEY; echo
set -o history
if [ -z "${OPENAI_API_KEY}" ]; then
echo "OPENAI_API_KEY를 입력해야 합니다." >&2
exit 1
fi
umask 077
cat > /root/.demo_secrets <<EOF2
export OPENAI_API_KEY="${OPENAI_API_KEY}"
export OPENAI_MODEL="gpt-5.2"
export OPENCLAW_GATEWAY_TOKEN="demo123"
EOF2
unset OPENAI_API_KEY이제 OpenClaw를 실행할 차례예요. 게이트웨이를 LAN 모드로 연결하고, 아까 열어둔 Custom Port 18789를 통해 외부에서도 접속할 수 있게 만들게요.
source /root/.demo_secrets
openclaw config set gateway.mode local
openclaw config set gateway.bind lan
openclaw config set gateway.port 18789
openclaw config set agents.defaults.model.primary "openai/gpt-5.2"
openclaw gateway --bind lan --port 18789 --allow-unconfigured --token "$OPENCLAW_GATEWAY_TOKEN"모델 설정: 이 글 기준 기본값은 openai/gpt-5.2로 유지하세요.
# Default model for this guide
openclaw config set agents.defaults.model.primary "openai/gpt-5.2"참고: workspace 터미널에서 게이트웨이가 18789 포트를 리슨 중인지 먼저 확인하세요 (`ss -lntp | grep 18789`). 그 다음 Connect 탭의 port 18789 External Link로 외부 접속을 확인하면 됩니다.
마지막으로, AI 모델이 대답을 잘 하는지 빠르게 확인해볼게요. 결과는 /shared 폴더에 저장되기 때문에, 워크스페이스를 잠시 멈췄다(Pause) 다시 켜도(Resume) 그대로 남아있어요.
source /root/.demo_secrets
python -m pip install -q openai
mkdir -p /shared/demo/output
python - <<'PY'
import os
from openai import OpenAI
client = OpenAI(api_key=os.environ["OPENAI_API_KEY"])
r = client.responses.create(
model="gpt-5.2",
input="Write 5 short blog hook lines for a cloud workspace demo. Max 12 words per line.")
text = r.output_text.strip()
path = "/shared/demo/output/hooks.txt"
with open(path, "w", encoding="utf-8") as f:
f.write(text + "\n")
print(path)
print(text)
PYls -lh /shared/demo/output
cat /shared/demo/output/hooks.txt
수고하셨어요! 여기까지 따라오셨다면 OpenClaw와 VESSL Cloud의 기본 설정이 모두 끝난 거예요. 🎉 아래부터는 이 AI를 진짜 '내 비서'처럼 쓰기 위한 팁들을 알려드릴게요.
진짜 비서라면 이전 대화를 기억해야겠죠? OpenClaw의 세션과 메모리 기능을 쓰면 대화의 맥락이 자연스럽게 이어져요. 가끔 비서가 내 말을 잊어버리는 것 같다면, 보통 아래 세 가지 이유 때문일 확률이 높아요.
가장 추천하는 방법은 처음 한 번만 워크스페이스 메모리와 세션 정책을 설정해두는 거예요. 아주 간단하고 안정적이랍니다.
아래 두 파일은 비서가 '나'를 기억하게 해주는 핵심 요소예요. 꺾쇠(< >)로 표시된 부분을 내 정보로 바꿔서 실행해 주세요.
WSP="$HOME/.openclaw/workspace"
mkdir -p "$WSP/memory"
cat > "$WSP/USER.md" <<'EOF2'
name: <본인 이름>
preferred_language: <선호 언어, 예: Korean>
primary_goal: <비서 용도, 예: personal assistant for scheduling and research>
EOF2
cat > "$WSP/MEMORY.md" <<'EOF2'
- <기본 응답 언어 규칙, 예: Reply in Korean by default.>
- <주요 작업 패턴, 예: For meeting requests, check calendar conflicts first.>
- Before irreversible actions, return:
1) ready-to-execute checklist
2) pre-filled details
3) final confirmation question
- Never claim an action is complete without tool confirmation.
EOF2설정 직후 아래 검증을 한 번 실행해 주세요.
openclaw config get session.dmScope
openclaw config get session.reset.mode
openclaw hooks check마지막으로 채팅에서 /context를 한 번 실행해 워크스페이스 규칙이 로드됐는지 확인하세요.
예시: 쇼핑 비서를 원한다면primary_goal: shopping assistant로 적고,MEMORY.md에 "빠진 정보만 먼저 물어봐줘" 같은 규칙을 넣어요. 일정 관리 비서라면primary_goal: calendar manager로 쓰고 "회의를 잡기 전에 겹치는 일정이 없는지 확인해줘" 같은 규칙을 넣으면 좋아요.
openclaw config set session.dmScope main
# 호환성용 선택 키(대부분 환경에서 필수는 아님)
openclaw config set session.mainKey main
openclaw config set session.reset.mode idle
openclaw config set session.reset.idleMinutes 10080main은 개인 비서에서 가장 단순하고 안정적인 기본값이에요.
session.mainKey는 호환성을 위한 선택값이라 대부분 환경에서는 필수가 아니에요.
개인 사용 전용 권장 설정입니다. 두 명 이상이 DM할 수 있다면 per-channel-peer로 바꿔 맥락 누수를 막아주세요.
openclaw config set session.dmScope per-channel-peer공용 봇에서 다른 사람의 대화 내용이 섞이지 않게 막아주는 설정이에요.
openclaw config set hooks.internal.enabled true
openclaw hooks enable session-memory
openclaw hooks enable boot-md
openclaw hooks checksession-memory: 대화가 새로 시작(/new)될 때마다 지금까지의 맥락을 자동으로 저장해요.boot-md: 게이트웨이가 켜질 때 BOOT.md에 적힌 동작을 알아서 실행해줘요.VESSL Cloud의 가장 큰 장점 중 하나는 바로 Pause(일시정지)와 Resume(재개) 기능이에요. 쓰지 않을 땐 꺼둬서 컴퓨팅 비용을 아끼면서, 파일과 설정은 그대로 간직할 수 있죠.
단, 한 가지 주의할 점이 있어요. Resume으로 다시 켰을 때, 이전에 돌던 프로그램들이 알아서 다시 켜지진 않아요.
매번 명령어를 치기 번거로우니, 재시작 스크립트를 한 번 만들어두는 걸 추천해요.
cat >/root/resume_openclaw.sh <<'EOF'
#!/usr/bin/env bash
set -euo pipefail
[ -f /root/.demo_secrets ] && source /root/.demo_secrets || true
export PATH="$HOME/.local/bin:$PATH"
# Load nvm/node if present
export NVM_DIR="$HOME/.nvm"
if [ -s "$NVM_DIR/nvm.sh" ]; then
. "$NVM_DIR/nvm.sh"
nvm use 22 >/dev/null 2>&1 || true
fi
hash -r
# Ensure openclaw is available
if ! command -v openclaw >/dev/null 2>&1; then
if command -v npm >/dev/null 2>&1; then
npm install -g openclaw@latest
else
ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'
apt-get update
apt-get install -y npm curl
npm install -g openclaw@latest
fi
hash -r
fi
exec openclaw gateway --bind lan --port 18789 --allow-unconfigured --token "${OPENCLAW_GATEWAY_TOKEN:-demo123}"
EOF
chmod +x /root/resume_openclaw.sh`bash /root/resume_openclaw.sh` 한 줄로 재시작 가능 (동일 workspace, 사전 설정 완료 기준)
bash /root/resume_openclaw.sh지금까지 설정한 것만으로도 OpenClaw는 훌륭하게 작동해요. 하지만 평소 쓰는 메신저로 비서와 대화하고 싶다면 텔레그램을 연결해보세요. OpenClaw가 자체 지원하는 텔레그램 채널을 쓰는 게 가장 좋아요.
set +o history
read -s -p "TELEGRAM_BOT_TOKEN: " TELEGRAM_BOT_TOKEN; echo
set -o history
TG_TOKEN_FILE="$HOME/.openclaw/.telegram_bot_token"
install -d -m 700 "$(dirname "$TG_TOKEN_FILE")"
printf "%s" "$TELEGRAM_BOT_TOKEN" > "$TG_TOKEN_FILE"
chmod 600 "$TG_TOKEN_FILE"
unset TELEGRAM_BOT_TOKEN
openclaw config set channels.telegram.enabled true
openclaw config set channels.telegram.tokenFile "$TG_TOKEN_FILE"
openclaw config set channels.telegram.dmPolicy pairing준비가 끝났다면 아래 순서대로 텔레그램을 연결해요.
openclaw pairing list telegram을 입력해요.openclaw pairing approve telegram <코드>를 입력해 승인해요.참고: 커스텀 파이썬 릴레이 (고급 설정, 맥락 유실 주의)
공식 텔레그램 채널을 도저히 쓸 수 없는 환경에서만 제한적으로 써주세요. 커스텀 릴레이는 대화 맥락이 쉽게 끊어질 수 있어요.
커스텀 relay가 꼭 필요한 경우에는 아래 공식 문서를 기준으로 구성하세요.
기본 권장 경로는 native Telegram 채널 + pairing입니다.
ls /etc/apt/sources.list.d/*git-lfs*.list 2>/dev/null | xargs -r sed -i 's/^deb /# deb /'openclaw: command not found 에러가 나요openclaw requires Node >=22.12 에러가 나요nvm 명령어로 Node 22 버전을 설치하고 터미널을 껐다 켜주세요.OPENAI_API_KEY missing 에러가 나요source /root/.demo_secrets 명령어를 입력해 주세요.dmScope 설정과 계정 연결(identity linking) 정책을 확인해 보세요.MEMORY.md 파일에 제대로 적혀있는지 확인하고 게이트웨이를 다시 켜주세요. /context 명령어를 쳐서 규칙을 잘 불러왔는지 확인할 수도 있어요.VESSL Cloud vs 로컬 기기 (Mac Mini, 노트북 등)
비서를 언제든 부르기 위해 집에 있는 컴퓨터를 서버로 쓸 수도 있죠. 어떤 차이가 있을까요?
최근 OpenClaw 같은 프로젝트 덕분에 "나만의 똑똑한 AI 비서를 만들어 볼까?"라는 생각에 불씨가 지펴지는 것 같아요. 앞으로도 AI를 활용한 재밌고 놀라운 프로젝트들이 계속 등장하겠죠. VESSL AI도 이런 흐름에 발맞춰, 여러분의 멋진 AI 아이디어가 현실이 되도록 든든한 인프라가 되어 드릴게요.

Product Marketer
Build, train, and deploy models faster at scale with fully managed infrastructure, tools, and workflows.