Wenden Sie generative KI und LLMs auf Ihre Daten an
Generative KI und Large Language Models (LLMs) bergen enormes Potenzial für Unternehmen.
Wir haben schon früher darüber diskutiert und auf dem Summit 2023 eine Reihe von Funktionen angekündigt, die unseren Kunden helfen, generative KI und LLMs direkt auf ihre proprietären Daten anzuwenden, und zwar über eine einzige, sichere Plattform.
Mithilfe der Plattform von Snowflake konnten unsere Kunden bereits Datensilos aufbrechen und weitere Neuerungen bei der Verarbeitung ihrer Daten einführen. Dazu gehört auch die Möglichkeit, führende LLMs in Snowflake mithilfe von Snowpark Container Services auszuführen und zu optimieren, Daten mit integrierten LLMs intelligenter zu nutzen und die Produktivität mithilfe von LLMs zu steigern. Lesen Sie weiter, um mehr über diese Ankündigungen zu erfahren.
Wenden Sie LLMs auf Ihre Daten an
Auf dem Summit haben wir Snowpark Container Services (Private Preview) angekündigt, damit Entwickler:innen containerisierte Datenanwendungen mühelos registrieren und bereitstellen können. Dafür nutzen sie eine sichere, von Snowflake verwaltete Infrastruktur mit konfigurierbaren Hardwareoptionen, wie z. B. NVIDIA-GPUs, um die Rechenvorgänge zu beschleunigen. Durch diese zusätzliche Flexibilität wird der Umfang der KI-/ML- und App-Workloads, die direkt auf Snowflake-Daten angewendet werden können, drastisch erweitert.
Um die Vorteile führender LLMs noch einfacher und sicherer nutzen zu können, kann Snowpark Container Services als Teil einer Snowflake Native App verwendet werden. So erhalten Kunden über den Snowflake Marketplace direkten Zugriff auf führende LLMs und können diese vollständig in ihren Snowflake-Konten installieren. Zu den ersten kommerziellen LLMs gehören AI21 Labs, Reka und NVIDIA (NeMo-Framework, Teil der NVIDIA AI Enterprise-Software-Plattform).
Bei diesen Anbietern sind ihre LLMs oder ihr sonstiges proprietäres geistiges Eigentum für die App-Benutzer:innen nicht sichtbar, da die Algorithmen und die Daten in der Snowflake Native App für Endkund:innen nicht zugänglich sind, selbst wenn die App in Snowpark Container Services auf deren Snowflake-Konten bereitgestellt und ausgeführt wird. Da die LLMs in den Konten der Endnutzer:innen ausgeführt werden, werden kontrollierte Unternehmensdaten, die für die Feinabstimmung oder andere Interaktionen mit dem LLM verwendet werden, niemals den Anbietern offengelegt. Eine Win-win-Situation für beide Seiten. Sehen Sie sich diese Demo an, um dies in Aktion zu erleben.
Erwecken Sie LLMs mit Streamlit zum Leben
Streamlit hatte schon immer die Vision, Daten und KI-/ML-Modelle als interaktive, mit Python erstellte Anwendungen auf eine einfache und angenehme Weise zum Leben zu erwecken. Mit LLMs ist das nicht anders. Streamlit hat sich schnell zum Standard bei der Erstellung von Benutzeroberflächen für LLM-gestützte Apps entwickelt. In der Tat wurden bereits über 7.000 LLM-gestützte Streamlit-Apps in der Community Cloud erstellt, und es werden täglich mehr. Allein auf GitHub gibt es über 190.000 Streamlit-Codeausschnitte (Tendenz steigend), mit denen GPT4 und andere LLMs interagieren können. Somit können Analyst:innen, Data Scientists und sogar Studierende schnell Analysen durchführen, Prototypen für neue Apps erstellen und automatisch generierte Streamlit-Fragmente in andere Apps einbinden können.
Mit der Integration von Streamlit in Snowflake (demnächst in Public Preview) können Snowflake-Kunden Streamlit nutzen, um hilfreiche Benutzeroberflächen für ihre LLM-gestützten Apps und Kundenerlebnisse vollständig in Snowflake zu entwickeln und bereitzustellen. So können Teams die bestehende Snowflake Governance verwenden, um Apps mühelos gemeinsam zu nutzen und sie schnell ohne operativen Aufwand bereitzustellen, da alles auf der Snowflake-Plattform ausgeführt wird.
Nutzen Sie Ihre Daten intelligenter– mit nativen LLMs
Darüber hinaus baut Snowflake LLMs direkt in die Plattform ein, um Kunden dabei zu helfen, die Produktivität zu steigern und neue Erkenntnisse aus ihren Daten zu gewinnen. Eine besondere Herausforderung für die Kunden besteht darin, unstrukturierte Daten, wie z. B. Dokumente, sinnvoll und gewinnbringend nutzen zu können. Mit Document AI (Private Preview) bietet Snowflake ein führendes LLM, mit dem Kunden schnell und einfach Informationen aus Dokumenten extrahieren können. Sehen Sie es hier in Aktion.
Document AI nutzt ein speziell entwickeltes, multimodales LLM, das nativ in die Snowflake-Plattform integriert ist. Kunden können einfach und sicher Inhalte wie Rechnungsbeträge oder Vertragsbedingungen aus Dokumenten extrahieren und die Ergebnisse über eine visuelle Schnittstelle und natürliche Sprache verfeinern. Da all das Teil der Plattform von Snowflake ist, können Data Engineers und Entwickler:innen auch Inferenzen durchführen, indem sie die integrierten oder verfeinerten Modelle programmatisch aufrufen, z. B. bei Pipelines mit Streams und Tasks oder in Anwendungen.
Steigern Sie die Produktivität mit LLMs
Wie wir in der gesamten Branche gesehen haben, können LLMs auch die Produktivität der Benutzer:innen steigern, indem sie den Aufwand durch manuelle Codierung verringern oder die Auffindbarkeit erleichtern. Auf dem Summit haben wir eine Reihe von Erweiterungen vorgestellt, die derzeit entwickelt werden, um den Kunden von Snowflake LLM-gestützte Anwendungen zu bieten. Dazu gehört die konversationelle Suche, die Kunden dabei hilft, Daten und Apps anhand von Geschäftsfragen im Snowflake Marketplace zu finden, sowie konversationelle Text-to-Code-Funktionen, womit auch Nicht-SQL-Benutzer:innen leichter Daten abfragen und neue Erkenntnisse in Snowsight gewinnen können. Wir arbeiten weiter daran, es allen, auch Nicht-Programmierer:innen, noch einfacher zu machen, Daten zu ermitteln und sie gewinnbringend zu nutzen.
Der nächste Schritt:
Generative KI bedeutet eine grundlegende Veränderung für Software und Unternehmen. Doch das ist erst der Anfang. Erfahren Sie auf unserer Website für Entwickler:innen mehr darüber, wie Sie Snowflake nutzen können, um die Produktivität Ihres Unternehmen mithilfe von LLMs zu steigern.
Mehr erfahren: Erfahren Sie mehr darüber, wie Snowflake eine datenzentrierte Plattform für generative KI und LLM aufbaut. Lesen Sie diesen Blog.