新しいマルチモーダルサポートや可観測性の強化などにより、エンタープライズグレードのAIを迅速に構築
Snowflake BUILDでは、信頼性と安全性を確保しながら、生成AIアプリケーションの構築とエンタープライズデータへの展開を促進するように設計された強力な新機能を導入します。これらの新しいツールは、ワークフローを合理化し、大規模なインサイトを提供し、AIアプリを迅速に本番稼働させます。Skaiなどのお客様は、これらの機能を使用して、生成AIソリューションを数か月ではなく、わずか2日間で本番稼働させました。
Snowflake Cortex AIとSnowflake MLにより、最も重要な生成AIアプリケーション向けの信頼できるAIソリューションの提供がどのように加速されるかをご紹介します。
データパイプラインの自然言語処理(NLP):大規模言語モデル(LLM)には変換の可能性がありますが、多くの場合、パイプラインへのバッチ推論統合は面倒です。今では、開発者はシンプルなクエリでセンチメントを推論したり、何百万ものレコードからカスタマーレビューを分類したりできるようになり、効率が高まり、時間が節約されています。たとえば、TS Imagineは、Snowflake Cortex AIを使用して生成AIを大規模に実装し、コストを30%削減し、以前は手動タスクにかかっていた4,000時間を削減しました。
対話的AI:ユーザーの質問に対する信頼性の高い魅力的な回答を作成することがより簡単になりました。これにより、セルフサービス分析やチャットボットによる文書検索などの強力なユースケースを利用できるようになります。
GPUベースのモデルの開発と展開:好みのPythonパッケージをGPUまたはCPUに搭載し、コンテナ内で推論に使用する強力で高度なMLモデルを構築できます。これらはすべて、統制されたデータと同じプラットフォーム内で実行されます。Avios、CHG Healthcare、Keysight Technologiesなどのお客様がすでにSnowflake MLでコンテナベースのモデルを開発しています。
コスト効率の高いLLMバッチ推論でNLPパイプラインのパフォーマンスを最適化
急速に進化するテクノロジーにより、さまざまなサイズ、コンテキストウィンドウ、機能のモデルが提供されており、特定のユースケースに適したモデルを選択することが不可欠です。たとえば、ドキュメントが複数の言語の場合、強力な多言語機能を備えたLLMが重要となります。ただし、分類などのシンプルなNLPタスクでは、高度なモデルが過剰になり、LLMが小さくなる可能性があります。Cortex LLM関数は、変換、要約、分類などの特定のユースケース向けに最適化されたモデルを提供します。これらのスケーラブルなモデルでは、何百万ものレコードを処理できるため、高性能のNLPデータパイプラインを効率的に構築できます。しかし、LLMデータ処理を数百万件のレコードにまで拡張すると、データ転送とオーケストレーションに問題が生じます。この問題は、Snowflake CortexのユーザーフレンドリーなSQL関数で簡単に解決できます。
幅広いモデルオプションにより性能とコストを最適化
Cortex AIは、LLM関数またはREST APIを介して業界をリードするモデルに簡単にアクセスできるようにし、生成AIイノベーションの推進に集中できるようにします。さまざまなサイズ、コンテキストウィンドウ長、言語サポートの幅広いモデルをご用意しています。最近追加された機能には、Voyageの多言語埋め込みモデル、MetaのLlama 3.1および3.2モデル、AI21のJamba-Instructモデルなどがあります。
Cortex Playground(近日中にパブリックプレビュー開始)では、Snowsightで直接モデルを試すことができます。このノーコードインターフェースにより、モデルが利用可能になったときに迅速に実験、比較、評価を行うことができます。
モデルカスタマイズ技術により、特定のユースケース向けにモデルを最適化できます。Snowflakeでは、サーバーレスファインチューニング(近日中に一般提供開始)が導入されており、開発者はモデルのファインチューニングによってコストパフォーマンスのメリットを強化できます。このフルマネージド型のサービスにより、開発者はトレーニングや推論のための独自のインフラストラクチャーを構築、管理する必要がなくなります。
COMPLETE関数でマルチモーダルに対応
マルチモーダルサポートでAIアプリとパイプラインを強化し、より豊かな応答を実現。新しい生成AI機能により、開発者はアプリケーション内で最も関連性の高い情報を使用してマルチモーダルデータを処理できるようになりました。Snowflake Cortex AIで利用可能なLlama 3.2モデルを使用して、画像入力のCortex COMPLETE関数の一部としてマルチモーダルLLM推論(近日中にプライベートプレビュー開始)を有効にしています。今後、音声、動画、画像の埋め込みのサポートを予定しています。マルチモーダルサポートの拡大により、要約、分類、エンティティ抽出など、さまざまなメディアタイプにまたがる多様なタスクへの対応が拡充されます。
使い慣れたSQL構文でマルチモーダル分析を実行
データベースクエリは、組織全体にわたってインサイトを実行し、ユーザーのためのデータドリブンなエクスペリエンスを強化する基盤です。従来、SQLはテーブルに整理された構造化データに限られていました。Snowflakeは、データチームが画像などの非構造化データに対して分析ワークフローを実行できるようにする新しいマルチモーダルSQL関数(近日中にプライベートプレビュー開始)を導入する予定です。これらの関数を使用すると、チームは使い慣れたSQL構文を使用して、セマンティックフィルターや非構造化データセット間の結合などのタスクを実行できます。
プロビジョニングされたスループット容量で大規模な推論ジョブを確実に処理
開発者がPoC(概念実証)の先に進む際には、一貫したエンドユーザーエクスペリエンスが障害となることがよくあります。暫定スループット(近日中にAWSでのパブリックプレビュー開始)により、お客様は専用スループットを予約し、ワークロードの一貫した予測可能なパフォーマンスを確保できます。さらに、クロスリージョン推論も開始しました。これにより、優先LLMがプライマリリージョンで利用できない場合でも、LLMにアクセスできます。
高品質で会話型AIアプリをより迅速に開発
Snowflakeは、会話型AIアプリケーションの開発と展開を簡素化する新しいツールを提供しています。
RAGの高度なドキュメント前処理
今年の初め、SnowflakeはCortex Searchの提供を開始しました。これは、お客様が複雑なコーディングを行うことなく、非構造化データからインサイトを引き出し、膨大なドキュメントコレクションをAI対応リソースに変換できるようにするためです。フルマネージド型の検索ソリューションにより、開発者はSnowflakeの安全な環境内で非構造化データからインサイトを抽出するスケーラブルなAIアプリを構築できます。この機能は、短いSQL関数で前処理を合理化して検索対象ドキュメントを最適化するレイアウトアウェアなテキスト抽出およびチャンキング関数と組み合わせると、特に強力です。
2つの新しいSQL前処理関数により、文書をより迅速にAI対応にすることができます。弊社は、Blobストレージ(Amazon S3など)から取得した文書をテキスト表現に変換し、検索拡張生成(RAG)アプリケーションで使用するために合理化されたソリューションを導入しています。SQLユーザーは、複雑なドキュメント処理パイプラインを 、PARSE_DOCUMENT (パブリックプレビュー)や SPLIT_TEXT_RECURSIVE_CHARACTER (プライベートプレビュー)などのCortex AIのシンプルなSQL関数に置き換えることができるようになりました。解析関数は、ドキュメントからテキストとレイアウトを抽出する処理を行います。開発者は、未加工データを元の保管場所から移動する必要はありません。テキスト分割機能は 抽出されたテキストを インデックス作成や検索に最適化されたセグメントに分割します。詳しくはこちらをご覧ください。
Cortex Analystの会話分析の改善
Cortex Analystにより、自然言語での正確なセルフサービスアナリティクスの範囲を拡大。Snowflake Cortex Analys tは、ユーザーがSnowflake内の構造化データとシームレスにやり取りできる会話型セルフサービスアナリティクスを提供するフルマネージドサービスとして、進化を続けています。最近のアップデートでは、高品質を維持しながら、SQL JoinsのStarスキーマとSnowflakeスキーマのサポート(パブリックプレビュー中)など、ユーザーエクスペリエンスと分析深度が強化され、より複雑なデータ調査と豊かなインサイトが可能になります。さらに、マルチターンカンバセーション(パブリックプレビュー)では、ユーザーがフォローアップ質問をすることで、よりスムーズなインタラクションを実現できます。Cortex Searchとの統合(パブリックプレビュー中)により、複雑でカーディナリティの高いデータフィールドの正確または類似したリテラル値を動的に取得することで、生成されるSQLクエリの精度が向上し、APIレベルのロールベースアクセス制御によってセキュリティとガバナンスが強化されます。
これらのアップデートを組み合わせることで、企業はデータから正確かつタイムリーなインサイトを安全に取得し、データドリブンな意思決定の全体的なコストを削減できます。これらの新機能と関連アップデートの詳細については、Cortex Analystブログ記事をご覧ください。
LLMアプリ用の高度なオーケストレーションおよび可観測性ツール
Snowflakeでのインタラクティブなアプリケーションの構築を簡素化するCortex Chat API(近日中にパブリックプレビュー開始)により、チャットアプリケーションでの手動の統合とオーケストレーションを削減します。検索と生成を単一のAPI呼び出しに統合することで、構造化データと非構造化データの両方と会話するエージェント型チャットアプリを構築できるようになりました。最適化されたプロンプトにより、質の高い応答と引用が可能になり、幻覚が減少し、信頼が高まります。単一の統合エンドポイントにより、アプリケーションアーキテクチャが簡素化されます。
新しい統合されたLLMアプリ向けAI可観測性(プライベートプレビュー中)による評価とモニタリングの組み込みにより、AIアプリの信頼性を向上。この可観測性スイートは、LLMアプリケーションの評価と信頼性を高めるために不可欠なツールを提供し、お客様のAIコンプライアンスの取り組みをサポートします。これらの可観測性機能により、アプリ開発者は、関連性、接地性、バイアスなどの品質メトリクスと、レイテンシーなどの従来のパフォーマンスメトリクスを開発プロセス中に評価できます。また、アプリケーションログの徹底的な監視が可能になり、組織はAIアプリケーションを注視できるようになります。
AI開発者は、アプリのパフォーマンスメトリクスをシームレスに追跡、評価できるようになり、特定のユースケース向けに最適化されたモデル、プロンプト、検索サービスを選択できるようになりました。さらに、開発者はログを管理し、TruEra買収の一環としてSnowflakeが監視するTruLensオープンソースライブラリを使用して、Snowflake内のアプリケーションまたは外部アプリケーションの事前構築済みの監視を活用できます 。
新しいデータソースの統合
新しいデータソース統合により、より多くのデータにAIを適用。Snowflake Connector for SharePoint (パブリックプレビュー中)を使用すると、データチームは既存のアクセスポリシーに準拠しながら、手動でパイプラインを設定したりデータを前処理したりすることなく、Snowflake内のSharePointデータの上にAIアプリケーションを構築できます。
さらに、SnowflakeマーケットプレイスのCortexナレッジ拡張機能(プライベートプレビュー中)により、チャットボット機能を強化できるようになりました。これらの拡張により、データチームは調査や新聞などのサードパーティプロバイダーによる最新の独自コンテンツでエンタープライズAIチャットボットを強化できます。これにより、パブリッシャーとコンテンツプロバイダーは、LLMトレーニングなどの知的財産を不正使用から保護しながら、新たな収益源を得ることができます。また、消費者は、品質や商用コンプライアンスに関する懸念に煩わされることなく、高品質のAI回答に迅速にアクセスできます。
GPUで信頼性の高いMLインサイトを促進
組織がさまざまな形式のデータを蓄積し、モデリング技術が高度化するにつれて、データサイエンティストとMLエンジニアのタスクはますます複雑化しています。Snowflake MLは、データサイエンスチームとMLチームがデータのガバナンスと管理に使用するのと同じプラットフォーム上で、特徴量とモデルのプロトタイプから本番環境への迅速な移行に必要な構成要素を提供します。CHG Healthcare、Stride、IGS Energy、Cooke Aquacultureなどの組織は、Snowflakeでエンドツーエンドの高度なMLモデルを直接構築しています。最近、レコメンデーションシステム、コンピュータービジョン、カスタム埋め込み、意思決定ツリーモデルなどの高度なユースケース向けに、分散GPUを搭載したMLモデルを開発、提供するための新しいイノベーションを発表しました。
GPU搭載のノートブックでML開発を加速
GPUは、モデルトレーニングなどのリソースを大量に消費するMLタスクを高速化する強力なコンピューティングを提供します。このコンピュートの高速化により、特に大規模なデータセットを扱う場合やPyTorchなどの高度なディープラーニングフレームワークを使用する場合に、モデルのイテレーションと展開を迅速に行えるようになります。大量のデータを移動したり、使用できるコードやライブラリを制限したりすることなく、リソースを大量に消費するワークフローをサポートするために、Snowflake MLはコンテナランタイム(AWSでのパブリックプレビュー、近日中にAzureでのパブリックプレビュー開始)をサポートするようになりました。これは、Python、SQL、Markdownが融合した、統合されたセルベースのインタラクティブな開発面であるSnowflake Notebook(一般提供)からアクセスできます。
内部テストの結果、ランタイム外でオープンソースライブラリを使用してSnowflakeデータで同じワークロードを実行する場合と比較して、コンテナランタイムでSnowflake ML APIを使用すると、GPUでMLトレーニングジョブを効率的に実行でき、実行速度が3~7倍に向上することがわかりました。このフルマネージド型のコンテナベースのランタイムには、最も一般的なPythonライブラリとフレームワークがあらかじめ設定されており、PyPIやHugging Faceなどのオープンソースハブから柔軟に拡張できます。
GPUを搭載したコンテナで推論をスケールアウト
開発後は、Snowparkコンテナサービスで分散CPUまたはGPUを使用して、Snowflakeモデルレジストリから任意のML、LLM、埋め込みモデル用のモデルを提供できます(AzureとAWSで一般提供)。Model Serving in Containers (AWSのパブリックプレビュー中)では、オンデマンドGPUインスタンスを使用して、リソース使用率を手動で最適化することなく、より高速かつ強力な推論を実行できます。
ビルトインのモニタリングでモデルの劣化をすばやく検出
MLモデルを実稼働環境で推論を実行し続けるには、Observability for ML Models(パブリックプレビュー中)など、ネイティブに統合されたSnowflakeの機械学習操作(MLOps)機能の拡張セットを使用できます。チームは、Snowflakeモデルレジストリに結び付けられたビルトインダッシュボードから直接、劣化、ドリフト、その他のモデルメトリクスを素早く追跡し、アラートを設定し、対処できるようになりました。また、このプラットフォームにはML説明可能性(パブリックプレビュー)が組み込まれており、社内外でトレーニングを受けているかどうかにかかわらず、Snowflakeモデルレジストリに記録されたモデルのShapley値を簡単に計算できます。
これらの新しいMLモニタリング機能は、モデルレジストリ、MLリネージ(パブリックプレビュー中)、特徴量ストア(一般提供)など、Snowflake MLで利用可能なMLOps機能セットに結合します。
SnowflakeインテリジェンスのAIエージェントでエンタープライズデータを最大限に活用
Snowflakeインテリジェンス(近日中にプライベートプレビュー開始)は、ビジネスユーザーが構造化データと非構造化データを分析し、要約し、アクションを起こせるようにするデータエージェントを作成するためのプラットフォームです。Snowflakeインテリジェンスを利用すると、販売取引、SharePointなどのナレッジベースのドキュメント、JiraやGoogle Workspaceなどの生産性ツールなどのエンタープライズデータにシームレスに接続できます。そのため、ビジネスユーザーは、技術スキルやコーディング知識がなくても、自然言語でデータドリブンなインサイトを生み出し、アクションを起こすことができます。
詳しくはこちら
Cortex AIとSnowflake MLの最新の機能強化により、開発者はSnowflakeの安全な環境内で生成AIアプリを確実に生産できます。
以下のリソースを使用して、AIアプリとカスタムモデルの構築を今すぐ始めましょう。
データパイプライン用のNLPソリューション:Snowflake Cortexを使用した顧客レビュー分析のクイックスタートをお試しください。
対話的AIクイックスタートを使用してRAGベースのチャットボットを構築するか、RAG ’n’ Roll Hackathonに参加して賞金10,000ドルを獲得しましょう。
GPUベースのML:GPUを使用したXGBoostモデルのトレーニングや、Snowflake Notebookからのカスタム埋め込みのスケーリングを開始します。
注:このページには、Snowflakeが将来提供する製品に関する記述を含め、将来の見通しに関する記述が含まれていますが、これはいかなる製品の提供も約束するものではありません。実際の成果や提供物は異なる可能性があり、既知および未知のリスクおよび不確実性の影響を受けます。詳細については、最新の四半期報告書(10-Q)をご覧ください。