Blog

베슬에이아이 첫 웨비나 성료 - '기업 AI 경쟁력의 핵심 – MLOps/LLMOps 활용 사례’

VESSL AI 뉴스

베슬에이아이 첫 웨비나 성료 - '기업 AI 경쟁력의 핵심 – MLOps/LLMOps 활용 사례’
Kate Kim

Kate Kim

무려 200명이 넘는 기업 고객분들이 뜨거운 관심으로 참여해 주셨습니다.

01 March 2025

AI 에이전트 뜻, '일잘러' 에이전트 기획의 필수 3요소

인사이트

AI 에이전트 뜻, '일잘러' 에이전트 기획의 필수 3요소
Jay Chun

Jay Chun

정교한 프롬프트 엔지니어링, 에이전트 도메인(분야)에 적합한 데이터 확보, API 기반 툴 콜링(Tool Calling) 활용하기까지 알아보세요.

04 February 2025

AI 에이전트 구현을 위한 인프라, LLMops의 중요성

인사이트

AI 에이전트 구현을 위한 인프라, LLMops의 중요성
Jay Chun

Jay Chun

AI 에이전트의 추론과 기획을 현실로 만들 수 있는 기반인 LLMops의 역할을 알려드려요.

04 February 2025

LLM 뜻: 대규모 언어 모델이란? (프라이빗 LLM까지)

인사이트

LLM 뜻: 대규모 언어 모델이란? (프라이빗 LLM까지)
Kate Kim

Kate Kim

LLM 뜻, 동작 원리, 학습법, 주요 모델까지 알려드려요. 프라이빗 LLM의 필요성도 놓치지 마세요.

01 February 2025

스캐터랩, MLOps 플랫폼 VESSL 도입으로 AI 모델 개발 주기를 약 40% 단축하다

고객 사례

스캐터랩, MLOps 플랫폼 VESSL 도입으로 AI 모델 개발 주기를 약 40% 단축하다
Kate Kim

Kate Kim

[베슬AI 고객 사례] 스캐터랩의 이야기를 통해 MLOps 플랫폼 VESS의 효과를 확인해 보세요!

20 December 2024

베슬에이아이 안재만 대표, 포브스 선정 ‘2025 주목해야 할 최고의 AI 창업자 33인’

VESSL AI 뉴스

베슬에이아이 안재만 대표, 포브스 선정 ‘2025 주목해야 할 최고의 AI 창업자 33인’
VESSL AI Team

VESSL AI Team

이번 명단에 기재된 33인 중 한국인은 단 3명 뿐입니다.

16 December 2024

MLOps 플랫폼 VESSL - VESSL 스토리지 (Storage) 출시

제품 업데이트

MLOps 플랫폼 VESSL - VESSL 스토리지 (Storage) 출시
Wayne Kim
Intae Ryoo

Wayne Kim · Intae Ryoo

베슬에이아이에서 AI/ML 데이터를 손쉽게 관리하고 저장할 수 있는 스토리지를 출시했습니다.

01 November 2024

베슬에이아이(VESSL AI), 1,200만 달러 시리즈 A 투자 유치

VESSL AI 뉴스

베슬에이아이(VESSL AI), 1,200만 달러 시리즈 A 투자 유치
Kate Kim
Wayne Kim

Kate Kim · Wayne Kim

이번 투자는 베슬에이아이의 AI 오케스트레이션 및 통합 MLOps 플랫폼의 성장 가능성을 증명하는 중요한 성과입니다.

08 October 2024

MLOps 플랫폼 VESSL - 파이프라인(Pipeline) 기능 출시

제품 업데이트

MLOps 플랫폼 VESSL - 파이프라인(Pipeline) 기능 출시
Wayne Kim
Jay Chun

Wayne Kim · Jay Chun

베슬에이아이에서 복잡한 머신러닝 워크플로우를 파이프라인으로 쉽게 정의하고 관리할 수 있는 파이프라인을 출시했습니다.

25 September 2024

MLOps 플랫폼 VESSL - 서버리스 모드(Serverless Mode) 기능 출시

제품 업데이트

MLOps 플랫폼 VESSL - 서버리스 모드(Serverless Mode) 기능 출시
Wayne Kim
Lidia

Wayne Kim · Lidia

베슬에이아이에서 인프라를 손쉽게 관리할 수 있도록 설계된 새로운 기능인 '서버리스 모드'를 출시하였습니다.

23 August 2024

스캐터랩, MLOps 플랫폼 VESSL을 이용해 LLM을 더 빠르고 60% 더 저렴하게 파인튜닝하다

고객 사례

스캐터랩, MLOps 플랫폼 VESSL을 이용해 LLM을 더 빠르고 60% 더 저렴하게 파인튜닝하다
Kelly

Kelly

[베슬AI 고객 사례] 스캐터랩의 이야기를 통해 MLOps 플랫폼 VESS의 효과를 확인해 보세요!

15 November 2023

카이스트(KAIST), MLOps 플랫폼 VESSL을 활용해 머신러닝 연구를 위한 GPU 600장의 클러스터 운영하다

고객 사례

카이스트(KAIST), MLOps 플랫폼 VESSL을 활용해 머신러닝 연구를 위한 GPU 600장의 클러스터 운영하다
VESSL AI Team

VESSL AI Team

[베슬AI 고객 사례] 카이스트의 이야기를 통해 MLOps 플랫폼 VESSL의 효과를 확인해 보세요!

05 September 2023

서울대학교, MLOps 플랫폼 VESSL을 fastMRI 챌린지 공동 주최시 활용하다

고객 사례

서울대학교, MLOps 플랫폼 VESSL을 fastMRI 챌린지 공동 주최시 활용하다
VESSL AI Team

VESSL AI Team

[베슬AI 고객 사례] 서울대학교의 이야기를 통해 MLOps 플랫폼 VESSL의 효과를 확인해 보세요!

04 January 2023

Try VESSL today

Build, train, and deploy models faster at scale with fully managed infrastructure, tools, and workflows.

Get Started

MLOps for high-performance ML teams

© 2025 VESSL AI, Inc. All rights reserved.