Producto y tecnología

Crea una IA empresarial más rápido con nueva compatibilidad multimodal, observabilidad mejorada y mucho más

Photo illustration of hands on laptop with background screens and the BUILD 2024 logo at the bottom on a blue bar

Durante el BUILD, Snowflake presentó funciones nuevas y potentes diseñadas para acelerar la creación e implementación de aplicaciones de inteligencia artificial (IA) generativa en datos empresariales, y para ayudar a garantizar la confianza y la seguridad. Estas nuevas herramientas optimizan los flujos de trabajo, ofrecen información a escala y consiguen que las aplicaciones de IA pasen rápidamente a producción. Clientes como Skai han utilizado estas capacidades para llevar su solución de IA generativa a producción en solo dos días en lugar de meses. 

A continuación, explicamos cómo Snowflake Cortex AI y Snowflake ML están acelerando la entrega de soluciones de IA fiables para las aplicaciones de IA generativa más esenciales:

  • Procesamiento del lenguaje natural (PLN) para flujos de datos: los large language models (LLM) tienen un potencial transformador, pero suelen integrarse por lotes en los flujos, lo que puede resultar engorroso. Ahora, con una simple consulta, los desarrolladores pueden inferir sentimientos o clasificar las reseñas de los clientes en millones de registros, lo que mejora la eficiencia y ahorra tiempo. Por ejemplo, TS Imagine implementó la IA generativa a escala con Snowflake Cortex AI, reduciendo costes en un 30 % y ahorrando 4000 horas dedicadas anteriormente a tareas manuales. 

  • Aplicaciones conversacionales: ahora es más sencillo crear respuestas fiables e interesantes para las preguntas de los usuarios, lo que abre la puerta a casos de uso potentes, como analíticas de autoservicio y búsqueda de documentos a través de chatbots.

  • Desarrollo e implementación de modelos basados en GPU: crea modelos de aprendizaje automático (machine learning, ML) potentes y avanzados con los paquetes Python que prefieras en la GPU o CPU que utilicen para la inferencia en contenedores, todo ello dentro de la misma plataforma que tus datos gobernados. Clientes como Avios, CHG Healthcare y Keysight Technologies ya están desarrollando modelos basados en contenedores en Snowflake ML.

Optimiza el rendimiento del flujo de PLN con una inferencia por lotes de LLM rentable 

Gracias a la rápida evolución de la tecnología, los modelos están disponibles en varios tamaños, ventanas contextuales y capacidades, por lo que es esencial seleccionar el adecuado para su caso de uso específico. Por ejemplo, si tus documentos están en varios idiomas, un LLM con capacidades multilingües sólidas es clave. Sin embargo, para tareas más sencillas del PLN, como la clasificación, un modelo avanzado podría ser excesivo y un LLM más pequeño podría ser más eficaz. Las funciones de Cortex LLM ofrecen modelos optimizados para casos de uso específicos, como traducción, resumen y clasificación. Estos modelos escalables pueden gestionar millones de registros, lo que permite crear flujos de datos del PLN de alto rendimiento de manera eficiente. Sin embargo, escalar el procesamiento de datos de LLM a millones de registros puede plantear problemas de transferencia y orquestación que se abordan fácilmente con las funciones SQL fáciles de usar de Snowflake Cortex.

Optimiza el rendimiento y el coste con una amplia gama de opciones de modelos

Cortex AI proporciona un acceso sencillo a modelos líderes del sector a través de funciones de LLM o REST API, lo que te permite centrarte en impulsar innovaciones de IA generativa. Ofrecemos una amplia selección de modelos en varios tamaños, longitudes de ventana contextual y soportes lingüísticos. Entre lo más reciente se incluyen el modelo multilingüe Voyage, los modelos Llama 3.1 y 3.2 de Meta y el modelo Jamba-Instruct de AI21.

Con Cortex Playground (próximamente en vista previa pública), puedes probar modelos directamente en Snowsight. Esta interfaz sin código te permite experimentar, comparar y evaluar modelos rápidamente a medida que estén disponibles. 

3 screenshots showing Snowflake Cortex Playground, the settings controls, and the View SQL capability
Figura 1: Cortex Playground, disponible en vista previa pública, proporciona una interfaz sin código para generar LLM y comparar ajustes.

Las técnicas de personalización de modelos te permiten optimizar modelos para tu caso de uso específico. Snowflake está introduciendo ajustes sin servidor (pronto de disponibilidad general), lo que permite a los desarrolladores ajustar los modelos para mejorar los beneficios en términos de coste-rendimiento. Este servicio totalmente gestionado elimina la necesidad de que los desarrolladores creen o gestionen su propia infraestructura de entrenamiento e inferencia. 

Obtén soporte multimodal en la función COMPLETE

Mejora las aplicaciones y los flujos de IA con compatibilidad multimodal para obtener respuestas más completas. Con las nuevas funciones de IA generativa, los desarrolladores pueden procesar datos multimodales utilizando la información más relevante en sus aplicaciones. Estamos habilitando la inferencia LLM multimodal (próximamente en vista previa privada) como parte de la función Cortex COMPLETE para introducir imágenes mediante los modelos Llama 3.2 disponibles en Snowflake Cortex AI. Pronto se admitirán integraciones de audio, vídeo e imágenes. La compatibilidad multimodal ampliada enriquece las respuestas en diversas tareas, como el resumen, la clasificación y la extracción de entidades, en diversos tipos de medios. 

Ofrece analíticas multimodales con una sintaxis SQL conocida

Las consultas de bases de datos son la fuerza subyacente que mueve la información en todas las organizaciones y favorece las experiencias de los usuarios basadas en datos. Tradicionalmente, SQL se ha limitado a datos estructurados bien organizados en tablas. Snowflake presentará nuevas funciones SQL multimodales (próximamente en vista previa privada) que permitirán a los equipos de datos ejecutar flujos de trabajo analíticos con datos no estructurados, como imágenes. Con estas funciones, los equipos pueden ejecutar tareas como filtros semánticos y uniones en conjuntos de datos no estructurados utilizando una sintaxis SQL conocida. 

Procesa con confianza grandes trabajos de inferencia con capacidad de rendimiento aprovisionada

Una experiencia de usuario final coherente suele ser un factor determinante a medida que los desarrolladores van más allá de las pruebas de concepto. Con Provisional Throughput (pronto en vista previa pública en AWS), los clientes pueden reservar un rendimiento dedicado, lo que garantiza un rendimiento constante y predecible para sus workloads. Además, hemos lanzado la inferencia entre regiones, lo que te permite acceder a tus LLM preferidos, incluso si no están disponibles en tu región principal.

Desarrolla aplicaciones de IA conversacional de alta calidad más rápido 

Ahora, Snowflake ofrece nuevas herramientas para simplificar el desarrollo y la implementación de aplicaciones de IA conversacional.

Preprocesamiento avanzado de documentos para RAG

A principios de este año, lanzamos Cortex Search para ayudar a los clientes a obtener información de datos no estructurados y convertir grandes colecciones de documentos en recursos listos para la IA sin codificación compleja. La solución de recuperación totalmente gestionada permite a los desarrolladores crear aplicaciones de IA escalables que extraen información de datos no estructurados en el entorno seguro de Snowflake. Esta capacidad es especialmente potente cuando se combina con funciones de extracción de texto y almacenamiento conforme al diseño que optimizan los documentos para su recuperación perfeccionando el preprocesamiento a través de funciones SQL cortas.

Ahora puedes preparar documentos con IA más rápido con dos nuevas funciones de preprocesamiento SQL. Presentamos soluciones optimizadas para procesar documentos desde el almacenamiento Blob (e.g., Amazon S3) en representaciones de texto para su uso en aplicaciones de generación aumentada de recuperación (retrieval augmented generation, RAG). Los usuarios de SQL ahora pueden reemplazar los flujos de procesamiento de documentos complejos por funciones SQL simples de Cortex AI, como PARSE_DOCUMENT (en vista previa pública) y SPLIT_TEXT_RECURSIVE_CHARACTER (en vista previa privada). La función de análisis se encarga de extraer el texto y el diseño de los documentos. Los desarrolladores no tienen que mover los datos sin procesar de su ubicación de almacenamiento original. La función de división de texto se encarga de agrupar el texto extraído en segmentos más optimizados para la indexación y la recuperación. Más información.

Mejoras de analíticas conversacionales en Cortex Analyst

Amplía el alcance de las analíticas precisas de autoservicio en lenguaje natural con Cortex Analyst. Snowflake Cortex Analyst sigue evolucionando como un servicio totalmente gestionado que ofrece analíticas conversacionales y de autoservicio que permiten a los usuarios interactuar sin problemas con los datos estructurados de Snowflake. Actualizaciones recientes mejoran la experiencia del usuario y la profundidad analítica, incluida la compatibilidad con SQL Joins para esquemas Star y Snowflake (en vista previa pública), al tiempo que mantienen una alta calidad, lo que permite exploraciones de datos más complejas e información más completa. Además, las conversaciones multiturno (en vista previa pública) permiten a los usuarios formular preguntas de seguimiento para interacciones más fluidas. La integración con Cortex Search (en vista previa pública) mejora la precisión de las consultas SQL generadas, ya que recupera dinámicamente valores literales exactos o similares para campos de datos complejos y de alta cardinalidad, mientras que los controles de acceso basados en roles a nivel de API refuerzan la seguridad y la gobernanza. 

En conjunto, estas actualizaciones permiten a las empresas obtener información precisa y oportuna de sus datos de forma segura, lo que reduce el coste general de la toma de decisiones basadas en datos. Para obtener más información sobre estas nuevas funciones y actualizaciones relacionadas, echa un vistazo a nuestra entrada del blog sobre Cortex Analyst.

Herramientas avanzadas de organización y observabilidad para aplicaciones de LLM

Reduce la integración y organización manuales en aplicaciones de chat con la Cortex Chat API (próximamente en vista previa pública), que simplifica la creación de aplicaciones interactivas en Snowflake. Al combinar la recuperación y la generación en una sola llamada a la API, ahora puedes crear aplicaciones de chat autónomas para hablar con datos estructurados y no estructurados. La instrucción optimizada permite generar respuestas de alta calidad junto con citas que reducen las alucinaciones y aumentan la confianza. Un único punto final de integración simplifica la arquitectura de la aplicación. 

Aumenta la fiabilidad de las aplicaciones de IA mediante la evaluación y supervisión integradas a través de la nueva función AI Observability for LLM Apps integrada (en vista previa privada). Este conjunto de observabilidad proporciona herramientas esenciales para mejorar la evaluación y la confianza en las aplicaciones de LLM, lo que respalda los esfuerzos de cumplimiento de la IA de los clientes. Estas funciones de observabilidad permiten a los desarrolladores de aplicaciones evaluar métricas de calidad, como la relevancia, la fundamentación y el sesgo, junto con métricas de rendimiento tradicionales, como la latencia, todo durante el proceso de desarrollo. También permiten supervisar minuciosamente los registros de aplicaciones, lo que permite a las organizaciones vigilar de cerca sus aplicaciones de IA. 

Three layered screenshots showing Snowflake ML Observability capability
Figura 2: la función AI Observability for LLM Apps integrada está disponible en vista previa privada para desarrollar aplicaciones de IA de alta calidad.

Ahora, los desarrolladores de IA pueden hacer un seguimiento y evaluar sin problemas las métricas de rendimiento de las aplicaciones, lo que les ayuda a elegir modelos optimizados, indicaciones y servicios de recuperación para sus casos de uso específicos. Además, los desarrolladores pueden gestionar los registros y aprovechar la supervisión predefinida para las aplicaciones de Snowflake o externas mediante la biblioteca de código abierto de TruLens, que Snowflake supervisa como parte de la adquisición de TruEra.

Nuevas integraciones de fuentes de datos

Lleva la IA a más datos con nuevas integraciones de fuentes de datos. Snowflake Connector for SharePoint (en vista previa pública) permite a los equipos de datos crear aplicaciones de IA sobre los datos de SharePoint en Snowflake, sin necesidad de configurar flujos ni preprocesar datos manualmente, al tiempo que se cumplen las políticas de acceso existentes. 

Además, ahora puedes mejorar las capacidades de los chatbots con Cortex Knowledge Extensions (en vista previa privada) en Snowflake Marketplace. Estas extensiones permiten a los equipos de datos enriquecer los chatbots de IA empresarial con contenido reciente y propio de terceros, como publicaciones de investigación o de periódicos. Para editores y proveedores de contenido, esto abre una nueva fuente de ingresos y protege la propiedad intelectual frente a usos no autorizados, como el entrenamiento de LLM. Además, proporciona a los consumidores un acceso más rápido a respuestas de IA de alta calidad, sin preocupaciones sobre la calidad o el cumplimiento comercial.

Agiliza la obtención de información fiable sobre el ML con GPU

A medida que las organizaciones acumulan más datos en una amplia variedad de formatos y que las técnicas de modelado son cada vez más sofisticadas, las tareas de un científico de datos y un ingeniero de ML son cada vez más complejas. Snowflake ML proporciona los componentes básicos que los equipos de ciencia de datos y ML necesitan para pasar rápidamente del prototipo a la producción de funciones y modelos en la misma plataforma que utilizan para gobernar y gestionar sus datos. Organizaciones como CHG Healthcare, Stride, IGS Energy y Cooke Aquaculture están creando sofisticados modelos integrales de ML directamente en Snowflake. Recientemente, hemos anunciado nuevas innovaciones para desarrollar y ofrecer modelos de ML con GPU distribuidas para casos de uso avanzados, como sistemas de recomendaciones, visión artificial, integraciones personalizadas y modelos de árboles de decisiones

Diagram of Snowflake ML Capabilities
Figura 3: Snowflake ML optimiza el desarrollo de modelos y MLOps en una única plataforma.

Acelera el desarrollo del ML con cuadernos con GPU

Las GPU ofrecen un procesamiento potente que acelera las tareas de ML que consumen muchos recursos, como el entrenamiento de modelos. Este cómputo acelerado mejora significativamente la rapidez con la que los equipos pueden iterar e implementar modelos, especialmente cuando trabajan con grandes conjuntos de datos o utilizan marcos avanzados de aprendizaje profundo como PyTorch. Para ser compatible con flujos de trabajo que consumen muchos recursos sin tener que mover grandes volúmenes de datos y sin limitaciones en el código o las bibliotecas que pueden utilizar, Snowflake ML ahora admite Container Runtime (en vista previa pública en AWS y próximamente en Azure) accesible a través de Snowflake Notebooks (disponible de forma general), una superficie de desarrollo interactiva unificada basada en celdas que combina Python, SQL y Markdown. 

Tras las pruebas internas, descubrimos que las Snowflake ML APIs en Container Runtime pueden ejecutar de forma eficiente trabajos de entrenamiento de ML en GPU con una mejora 3-7 veces mayor en la velocidad de ejecución en comparación con la ejecución del mismo workload con tus datos de Snowflake mediante bibliotecas de código abierto fuera del entorno de ejecución. Este entorno de ejecución totalmente gestionado y basado en contenedores viene preconfigurado con las bibliotecas y marcos de Python más populares, con la flexibilidad de extenderse desde centros de código abierto como PyPI y Hugging Face.

Escalado horizontal de la inferencia en contenedores con GPU

Después del desarrollo, puede ofrecer modelos para producción desde el registro de modelos de Snowflake para cualquier modelo de ML, LLM o integración mediante CPU o GPU distribuidas en Snowpark Container Services (disponible de forma general en Azure y AWS). Model Serving in Containers (en vista previa pública en AWS) permite una inferencia más rápida y potente mediante instancias de GPU a petición sin necesidad de optimizar manualmente el uso de los recursos.

Detecta rápidamente la degradación de los modelos con la supervisión integrada

Para mantener los modelos de ML en inferencia en producción, puedes utilizar el conjunto ampliado de funciones de operaciones de aprendizaje automático (machine learning operations, MLOps) integradas de forma nativa de Snowflake, incluida la Observability for ML Models (en vista previa pública). Ahora, los equipos pueden realizar un seguimiento rápido, establecer alertas y abordar la degradación, la deriva y otras métricas del modelo directamente desde los paneles integrados vinculados al registro de modelos de Snowflake. También incorpora ML Explainability (en vista previa pública), que permite a los usuarios calcular fácilmente los valores de Shapley de los modelos registrados en Snowflake Model Registry, ya sea entrenados interna o externamente. 

Estas nuevas capacidades de supervisión de ML se unen al conjunto de capacidades MLOps disponibles en Snowflake ML, como Model Registry, ML Lineage (en vista previa pública) y Feature Store (de disponibilidad general).  

Screenshot of Snowflake Model Registry monitoring
Figura 4: los usuarios pueden supervisar el rendimiento de los modelos de ML en producción directamente desde la interfaz de usuario de Snowsight integrada con Snowflake Model Registry.

Aprovecha todo el potencial de los datos empresariales con agentes de IA en Snowflake Intelligence

Snowflake Intelligence (en vista previa privada próximamente) es una plataforma para crear agentes de datos que permite a los usuarios empresariales analizar, resumir y tomar medidas a partir de datos estructurados y no estructurados, todo en una interfaz conversacional unificada. Snowflake Intelligence permite a los usuarios conectarse sin problemas a los datos empresariales —como transacciones de ventas, documentos en bases de conocimientos como SharePoint y herramientas de productividad como Jira y Google Workspace— para que los usuarios empresariales puedan generar información basada en datos y tomar medidas en lenguaje natural sin necesidad de conocimientos técnicos ni de codificación.

Gif animation showing how Snowflake Intelligence works

Más información

Gracias a las últimas mejoras en Cortex AI y Snowflake ML, los desarrolladores pueden producir aplicaciones de IA generativa en el entorno seguro de Snowflake con confianza.

Empieza a crear aplicaciones de IA y modelos personalizados hoy mismo utilizando estos recursos:

Nota: Este artículo contiene declaraciones prospectivas, también sobre nuestras futuras ofertas de productos, que no implican que nos comprometamos a proporcionar ninguna oferta de producto. Los resultados y las ofertas reales pueden diferir y están sujetos a riesgos e incertidumbres conocidos y desconocidos. Consulta nuestro Formulario 10-Q más reciente para obtener más información.

 

Photo illustration of two women collaborating near a computer and other images representing tech and teamwork
Ebook

Secrets of Gen AI Success

Discover how leaders like Bayer and Siemens Energy use gen AI to increase revenue, improve productivity and better serve customers.
Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Comienza tu pruebagratuita de 30 días

Prueba Snowflake gratis durante 30 días y experimenta el Data Cloud, que acaba con la complejidad, el coste y las restricciones de otras soluciones.