
블로그
Snowflake에서 GPU로 Scikit-Learn과 Pandas 성능 극대화
코드 변경 없이 GPU로 scikit-learn, pandas, UMAP, HDBSCAN의 모델 개발 속도를 획기적으로 높이는 방법을 확인하세요.
거버넌스가 적용된 데이터와 동일한 플랫폼에서 분산 GPU 또는 CPU를 활용해 머신러닝을 가속화하세요. 유지 관리하거나 구성할 인프라 없이 중앙 집중식 UI를 통해 실시간 및 배치 워크플로우 전반의 모델 개발과 MLOps를 간소화할 수 있습니다.
개요
도구, 실시간 및 배치 워크플로우, 확장 가능한 컴퓨팅 인프라를 데이터와 통합한 완전 통합형 플랫폼으로 ML 피처와 모델을 개발, 배포 및 모니터링하세요.
데이터가 있는 동일한 플랫폼에서 모든 오픈소스 모델로 모델 파이프라인을 엔드투엔드로 통합하세요.
수동 튜닝이나 구성 없이 내장형 인프라 최적화를 통해 CPU 또는 GPU에서 ML 파이프라인을 확장하세요.
Snowflake에서 전체 수명 주기에 걸쳐 피처와 모델을 발견하고 관리하며 거버넌스를 수행하세요.





ML 워크플로우
모델 개발
ML Jobs를 통해 Snowflake Notebooks 또는 원하는 IDE에서 데이터 로딩을 최적화하고 모델 학습을 분산 실행할 수 있습니다.


피처 관리
Snowflake Feature Store를 사용하여 배치 또는 스트리밍 데이터에서 30밀리초 이내로 지속적인 자동 새로 고침을 수행하며 ML 피처를 생성, 관리 및 제공합니다.
학습 및 추론 전반에서 피처의 검색 가능성, 재사용성, 거버넌스를 강화합니다.
통합된 Feature Store UI를 통해 파이프라인 전반의 피처를 손쉽게 검색하고 시각적으로 추적할 수 있습니다.
프로덕션
개인화 추천, 사기 감지와 같은 저지연 온라인 사용 사례를 지원하기 위해 100밀리초 이내로 모델을 서빙할 수 있습니다.

Snowflake ML의 개발 및 프로덕션 통합 기능
자세히 알아보기
시작하기
엔드투엔드 ML
네, 데이터 과학자와 ML 엔지니어는 CPU 또는 GPU에서 분산 처리를 통해 모델을 구축하고 배포할 수 있습니다. 이는 Snowflake ML 플랫폼을 구동하는 Ray 기반 최신 컨테이너 인프라에 의해 지원됩니다.
네, Snowflake ML은 온라인 및 배치 워크로드를 모두 처리합니다. 실시간 요구 사항의 경우, 온라인 기능 스토어와 온라인 모델 추론 기능을 일반적으로 활용할 수 있으며, 개인화 추천, 사기 감지, 가격 최적화, 이상 감지와 같은 사용 사례를 지원합니다.
아니요, 외부에서 구축된 어느 모델이든 Snowflake 데이터에서 프로덕션 실행이 가능합니다. 추론 중에 ML Observability 및 RBAC 거버넌스와 같은 통합 MLOps 기능을 활용할 수 있습니다.
네, Snowflake ML은 모든 오픈 소스 라이브러리와 완벽하게 호환됩니다. pip로 오픈 소스 리포지토리에 안전하게 액세스하고 Hugging Face와 같은 허브에서 모델을 가져올 수 있습니다.
Snowflake는 소비 기반 가격 책정 모델로 운영됩니다. 자세한 내용은 최신 크레딧 요금표를 참조하세요.
네, ML Quickstart를 무료 평가판을 통해 직접 체험하실 수 있습니다.