20 December 2024
[베슬AI 고객 사례] 스캐터랩의 이야기를 통해 MLOps 플랫폼 VESS의 효과를 확인해 보세요!
스캐터랩 - 재미있고 말랑한 AI 프로덕트로, 세상을 더 재미있고 외롭지 않게 만들고픈 생성 AI 스타트업
2011년 설립된 스캐터랩은 AI 기술을 기반으로 혁신적인 제품을 개발해 온 국내 최고의 일상대화 AI 스타트업입니다. 스캐터랩의 대표적인 서비스로는 챗봇 ‘이루다(Iruda)’와 몰입형 AI 엔터테인먼트 플랫폼 ‘제타(Zeta)’가 있습니다.
스캐터랩은 자체 개발한 대화 모델을 통해 사용자가 원하는 상황과 캐릭터를 실시간으로 생성하며, 몰입감 넘치는 경험을 제공합니다. 이러한 혁신 뒤에는 고도화된 머신러닝(ML) 연구 환경이 필요했습니다. 이 과정에서 베슬에이아이(VESSL AI)의 MLOps 플랫폼 VESSL을 도입하여 지속적으로 사용하고 있습니다.
출처: 스캐터랩 홈페이지
현재 스캐터랩의 연구 및 개발 프로세스에서 VESSL은 AI 모델 학습과 평가를 비롯한 실험 관리의 핵심 플랫폼으로 자리잡았다고 합니다. 대규모 모델을 다루거나 다양한 실험 설정을 반복적으로 수행해야 하는 상황에서 VESSL은 필수적인 도구라고 하는데요. 더 자세한 내용은 아래 스캐터랩과 진행한 인터뷰 내용을 통해 확인해 보세요!
스캐터랩의 AI 연구팀은 꾸준히 자체 AI 모델을 연구하고 발전시켜 왔으나, 기존 사용하던 Google Cloud Platform(GCP) 가상 머신(VM) 환경에서 여러 가지 제약에 부딪혔습니다.
: 대규모 머신러닝(ML) 학습 환경을 준비해야 했지만, GPU 수요 증가로 인해 필요한 시점에 GPU를 안정적으로 확보하기 어려워 중요한 실험이 자주 지연되었습니다.
: 실험마다 인스턴스를 수동으로 할당하고 해제하는 과정에서 엔지니어링 리소스가 낭비되었으며, 일부 실험 종료가 지연되어 불필요한 비용이 발생하기도 했습니다.
: 반복적으로 설정해야 하는 실험 환경과 비효율적인 데이터 관리로 인해 연구 효율성이 저하되었습니다.
출처: 스캐터랩 고객사 인터뷰 영상 (이녕우 스캐터랩 LLM 팀 리드)
스캐터랩은 이러한 문제에 대한 해결책으로 베슬에이아이(VESSL AI)의 MLOps 플랫폼 VESSL을 도입하게 되었습니다.
다양한 MLOps 플랫폼들이 있었지만 유연한 GPU 수급과 자동화된 인스턴스 관리 및 실험 이력 관리를 지원하는 솔루션을 찾다가, VESSL이 이런 요구를 가장 잘 해결할 수 있다고 판단했습니다.
출처: 베슬에이아이(VESSL AI) 홈페이지
VESSL의 차별점이자 가장 큰 장점은 사용자 친화적인 인터페이스와 작업 관리 도구를 활용해, 복잡한 과정 없이 간단하게 머신러닝 모델을 학습하고 평가를 진행할 수 있다는 점입니다.
특히, VESSL Run은 인스턴스 할당부터 AI 모델 학습, 결과 확인까지의 엔드투엔드 프로세스를 한 번의 실행으로 자동화하여 반복 작업을 줄이고 연구팀의 생산성을 크게 높였습니다. 새로운 클러스터가 추가되더라도 별도 설정 없이 바로 실험을 실행할 수 있으며, 기술 지원이 뛰어나다는 점도 큰 강점입니다.
출처: 스캐터랩 고객사 인터뷰 영상 (인터뷰 참여자: 이봉석 스캐터랩 LLM 팀)
VESSL의 자동화된 자원 관리와 실험 프로세스 덕분에 모델 학습 및 검증 속도가 대폭 빨라졌습니다. 연구팀은 더 많은 실험을 수행하며, 새로운 모델 개발 주기를 단축할 수 있었습니다.
VESSL은 GPU 인스턴스 할당과 해제를 자동으로 처리해, 엔지니어링 리소스의 낭비를 최소화했습니다. 프로젝트별로 실험 환경을 미리 설정해두고 간단한 스크립트 실행만으로 실험을 시작할 수 있어 연구 효율성이 높아졌습니다.
모든 실험 이력이 체계적으로 저장되어 과거 데이터를 손쉽게 조회하거나 모델을 재현할 수 있었습니다. 이를 통해 팀 간 협업이 더욱 원활해지고, 연구 프로세스의 가시성이 크게 향상되었습니다.
반복 작업이 줄어들고 불필요한 비용이 발생하지 않아 리소스가 최적화되었습니다. 이로 인해 연구팀은 더욱 중요한 작업에 집중할 수 있었습니다.
MLOps 플랫폼 VESSL은 리소스 관리와 연구 생산성을 고민하는 모든 기업에게 VESSL은 최적의 솔루션으로, 특히 반복적인 파인튜닝(FT) 실험을 수행하거나, 대규모 데이터와 모델을 다루는 팀이라면 그 효과를 더욱 실감할 수 있을 것입니다.
“VESSL 덕분에 간단한 코드만으로 모델의 학습과 평가를 진행할 수 있어 반복 작업이 크게 줄었습니다. 또한 학습 및 검증 속도가 획기적으로 개선되어, 새로운 모델 개발 주기가 평균 40%나 단축되었으며 이는 비용절감으로도 이어졌습니다”
– 이녕우, 스캐터랩 LLM 팀 리드 & 이봉석, 스캐터랩 LLM 팀
스캐터랩처럼, 베슬에이아이의 MLOps 플랫폼 VESSL을 도입하여
AI/머신러닝(ML) 연구팀이 더 중요한 작업에 집중할 수 있는 환경을 만들어보세요!
Growth Manager
Build, train, and deploy models faster at scale with fully managed infrastructure, tools, and workflows.