Produto e tecnologia

Crie IA de nível empresarial com mais rapidez com os novos recursos de suporte multimodal, melhor observabilidade e muito mais

Photo illustration of hands on laptop with background screens and the BUILD 2024 logo at the bottom on a blue bar

Na conferência Snowflake BUILD, apresentamos novos recursos avançados desenvolvidos para acelerar a criação e a implementação de aplicações de IA generativa em dados corporativos, ao mesmo tempo em que ajudamos você a garantir credibilidade e segurança. Essas novas ferramentas simplificam os fluxos de trabalho, fornecem insights em escala e colocam as aplicações de IA em produção rapidamente. Clientes, como a Skai, têm usado esses recursos para colocar suas soluções de IA generativa em produção em apenas dois dias, e não em meses. 

Veja a seguir como o Snowflake Cortex AI e o Snowflake ML estão agilizando a criação de soluções de IA confiáveis para as aplicações de IA generativa mais estratégicas:

  • Processamento de linguagem natural (NLP) para pipelines de dados: os grandes modelos de linguagem (large language models, LLMs) têm um potencial transformador. No entanto, eles muitas vezes requerem a integração em lote dos pipelines, o que pode ser trabalhoso. Agora, com uma consulta simples, os desenvolvedores podem deduzir as reações ou categorizar os comentários dos clientes em milhões de registros, melhorando a eficiência e economizando tempo. Por exemplo, a TS Imagine usou o Snowflake Cortex AI para implementar IA generativa em escala, reduzindo os custos em 30% e economizando 4.000 horas antes despendidas em tarefas manuais. 

  • Apps conversacionais: retornar respostas confiáveis e convincentes para as perguntas dos usuários agora ficou mais simples, o que possibilita casos de uso avançados, como análise de autoatendimento e pesquisa de documentos por meio de chatbots.

  • Desenvolvimento e implementação de modelos baseados em GPU: desenvolva modelos avançados de ML com os pacotes Python de sua preferência em GPUs ou CPUs que as utilizam para inferência em contêineres, tudo na mesma plataforma dos seus dados governados. Clientes, como Avios, CHG Healthcare e Keysight Technologies, já estão desenvolvendo modelos baseados em contêineres no Snowflake ML.

Otimize o desempenho do pipeline de NLP com inferência em lote de LLM com boa relação custo/benefício. 

Com a rápida evolução da tecnologia, os modelos estão disponíveis em vários tamanhos, janelas de contexto e recursos, tornando essencial selecionar o modelo certo para o seu caso de uso específico. Por exemplo, se seus documentos estiverem em várias linguagens, é fundamental ter um LLM com recursos multilinguagem avançados. No entanto, para tarefas de NLP mais simples, como classificação, um modelo avançado pode ser demais e um LLM menor pode ser mais eficaz. As funções do Cortex LLM oferecem modelos otimizados para casos de uso específicos, como tradução, resumo e classificação. Esses modelos dimensionáveis podem lidar com milhões de registros, permitindo que você crie, com eficiência, pipelines de dados de NLP de alto desempenho. No entanto, dimensionar o processamento de dados de LLMs para milhões de registros pode apresentar desafios de transferência e orquestração de dados, que são resolvidos de modo simples pelas funções SQL fáceis de usar do Snowflake Cortex.

Otimize custos e desempenho com uma gama mais ampla de opções de modelos.

O Cortex AI oferece fácil acesso a modelos líderes do setor por meio de funções de LLM ou APIs REST, permitindo que você se concentre em criar inovações de IA generativa. Oferecemos uma ampla seleção de modelos em vários tamanhos, comprimentos de janela de contexto e suporte de linguagem. As funções mais recentes incluem o modelo de integração multilinguagem Voyage, os modelos Llama 3.1 e 3.2 da Meta e o modelo Jamba-Instruct da AI21.

Com o Cortex Playground (breve em versão preliminar pública), você pode testar os modelos diretamente no Snowsight. Essa interface no-code permite testar, comparar e avaliar rapidamente modelos à medida que eles se tornam disponíveis. 

3 screenshots showing Snowflake Cortex Playground, the settings controls, and the View SQL capability
Figura 1. O Cortex Playground, disponível em versão preliminar pública, oferece uma interface no-code (sem código) para geração e comparação de configurações de LLM.

As técnicas de personalização de modelos permitem otimizar modelos para o seu caso de uso específico. A Snowflake está lançando o serverless fine-tuning (em breve, disponível ao público). O recurso permite que os desenvolvedores otimizem os modelos para tirar proveito do desempenho de custos aprimorados. Esse serviço totalmente gerenciado elimina a necessidade de desenvolvedores criarem ou gerenciarem sua própria infraestrutura para inferência e treinamento. 

Use a função COMPLETE para obter suporte multimodal

Melhore apps e pipelines de IA com suporte multimodal para respostas mais detalhadas. Com novos recursos de IA generativa, os desenvolvedores agora podem processar dados multimodais usando as informações mais relevantes em suas aplicações. Estamos habilitando LLM inference multimodal (breve em versão preliminar privada) como parte da função Cortex COMPLETE para a inclusão de imagens usando os modelos Llama 3.2 disponíveis no Snowflake Cortex AI. Em breve, haverá suporte a integrações de áudio, vídeo e imagem. O suporte multimodal ampliado melhora as respostas para tarefas diversas, como resumo, classificação e extração de entidades em vários tipos de mídia. 

Ofereça análise multimodal de dados com sintaxe SQL familiar.

As consultas de banco de dados são a força subjacente que administra os insights em várias organizações e possibilita experiências baseadas em dados para os usuários. Tradicionalmente, o SQL se limita a dados estruturados e bem-organizados em tabelas. A Snowflake vai lançar novas funções SQL multimodais (em breve em versão preliminar privada), permitindo que as equipes de dados executem fluxos de trabalho analíticos em dados não estruturados, como imagens. Com essas funções, as equipes podem executar tarefas, como filtros semânticos e junções entre conjuntos de dados não estruturados usando a sintaxe SQL familiar. 

Processe com confiança grandes tarefas de inferência com capacidade de processamento provisionada

Uma experiência consistente do usuário final é muitas vezes um fator decisivo, pois os desenvolvedores vão além das provas de conceito. Com o Provisional Throughput (breve em versão preliminar pública no AWS), os clientes podem reservar processamento dedicado, garantindo desempenho consistente e previsível para suas cargas de trabalho. Além disso, lançamos a inferência entre regiões, permitindo que os usuários acessem os LLMs preferidos, mesmo que eles não estejam disponíveis em sua região principal.

Desenvolva apps de IA de alta qualidade e conversacionais com maior rapidez 

Agora, a Snowflake oferece novas ferramentas para simplificar o desenvolvimento e a implementação de apps de IA conversacional.

Pré-processamento avançado de documentos para RAG

No início deste ano, lançamos o Cortex Search para ajudar os clientes a obter insights a partir de dados não estruturados e transformar grandes coleções de documentos em recursos prontos para IA, sem codificação complexa. A solução de recuperação totalmente gerenciada permite que os desenvolvedores criem apps de IA dimensionáveis capazes de extrair insights de dados não estruturados no ambiente seguro do Snowflake. Essa capacidade é especialmente eficaz quando aliada a funções de extração de texto e fragmentação de acordo com o layout, que otimizam os documentos para recuperação simplificando o pré-processamento por meio de funções SQL simples.

Agora, é possível preparar os documentos para IA mais rapidamente com duas novas funções de pré-processamento em SQL. Estamos incorporando soluções simplificadas para processar documentos do armazenamento de blob (por exemplo, Amazon S3) em representações de texto para uso em aplicações de geração aumentada de recuperação (retrieval augmented generation, RAG). Os usuários de SQL agora podem substituir pipelines de processamento de documentos complexos com funções SQL simples do Cortex AI, como PARSE_DOCUMENT (versão preliminar pública) e SPLIT_TEXT_RECURSIVE_CHARACTER (versão preliminar privada). A função de análise (parsing) cuida da extração de texto e layout de documentos. Os desenvolvedores não precisam mover os dados brutos do seu local de armazenamento original. A função de divisão de texto realiza a fragmentação do texto extraído em segmentos menores, mais otimizados, para indexação e recuperação. Saiba mais.

Melhorias na análise de dados conversacionais do Cortex Analyst

Use o Cortex Analyst para ampliar o escopo de análise de dados precisa e de autoatendimento em linguagem natural. O Snowflake Cortex Analyst continua a evoluir como um serviço totalmente gerenciado, fornecendo análise de dados conversacional e por autoatendimento, permitindo que os usuários interajam continuamente com dados estruturados no Snowflake. As atualizações recentes melhoraram a experiência do usuário e a profundidade analítica, incluindo o suporte do SQL Joins para esquemas Star e Snowflake (em versão preliminar pública), mantendo a alta qualidade, possibilitando pesquisas de dados mais complexas e insights mais detalhados. Além disso, funções como multiturn conversations (em versão preliminar pública) permitem que os usuários façam perguntas de acompanhamento para interações mais fluidas. A integração com o Cortex Search (versão preliminar pública) melhora a precisão das consultas SQL geradas ao recuperar dinamicamente valores literais exatos ou similares para campos de dados complexos e de alta cardinalidade, enquanto os controles de acesso baseados em função (RBAC) no nível de APIs reforçam a segurança e a governança. 

Juntas, essas atualizações permitem que as empresas extraíam insights precisos, e no tempo certo, de seus dados com segurança, reduzindo o custo total do processo decisório com base em dados. Para saber mais sobre esses novos recursos e atualizações relacionadas, confira nossa publicação no blog do Cortex Analyst.

Ferramentas avançadas de orquestração e observabilidade para apps de LLM

Use Cortex Chat API (em breve em versão preliminar pública) para reduzir integrações e orquestrações manuais em aplicativos de chat, simplificando a criação de apps interativos no Snowflake. Ao combinar a recuperação e a geração em uma única chamada de API, agora é possível criar apps de chat agênticos para conversar com dados estruturados e não estruturados. O prompt otimizado possibilita respostas de alta qualidade, juntamente com citações que reduzem as alucinações e aumentam a credibilidade. Um único ponto de extremidade de integração simplifica a arquitetura da aplicação. 

Melhore a credibilidade das aplicações de IA com avaliação e monitoramento integrados por meio da nova função integrada AI Observability for LLM Apps (em versão preliminar privada). Essa suíte de observabilidade fornece ferramentas essenciais para melhorar a avaliação e a confiança em apps de LLM, apoiando os esforços de conformidade de IA dos clientes. Esses recursos de observabilidade permitem que os desenvolvedores de apps avaliem as métricas de qualidade, como relevância, fundamentalidade e bias, além de métricas de desempenho tradicionais, como latência, durante todo o processo de desenvolvimento. Essas ferramentas também possibilitam o monitoramento completo dos logs de aplicações, permitindo que as organizações acompanhem atentamente suas aplicações de IA. 

Three layered screenshots showing Snowflake ML Observability capability
Figura 2. A observabilidade de IA integrada para LLMs está disponível em versão preliminar privada para desenvolvimento de aplicações de IA de alta qualidade.

Agora, os desenvolvedores de IA podem monitorar e avaliar continuamente as métricas de desempenho dos apps, ajudando-os a escolher modelos, solicitações e serviços de recuperação otimizados para seus casos de uso específicos. Além disso, os desenvolvedores podem gerenciar logs e usar o recurso integrado de monitoramento para apps dentro do Snowflake ou apps externos usando a biblioteca de código aberto da TruLens, supervisionada pelo Snowflake como parte da aquisição da TruEra.

Novas integrações de fontes de dados

Leve a IA para mais dados com novas integrações de fontes de dados. O Snowflake Connector for SharePoint (em versão preliminar pública) permite que as equipes de dados criem, no Snowflake, aplicações de IA sobre os dados existentes no SharePoint, sem precisar configurar pipelines manualmente ou pré-processar dados, ao mesmo tempo em que cumprem as políticas de acesso existentes. 

Além disso, agora é possível aprimorar os recursos de chatbots com o Cortex Knowledge Extensions (versão preliminar privada) no Snowflake Marketplace. Essas extensões permitem que as equipes de dados enriqueçam os chatbots de IA para empresas com conteúdo recente e proprietário de provedores terceirizados, como publicações de pesquisa ou jornalísticas. Para publishers e provedores de conteúdo, isso cria um novo fluxo de receita e protege a propriedade intelectual contra usos não autorizados, como treinamento de LLM. E, para os consumidores, isso oferece acesso mais rápido a respostas de IA de alta qualidade, livre de preocupações relativas à qualidade ou à conformidade comercial.

Acelere os insights de ML confiáveis com GPUs

Conforme as organizações acumulam mais dados em uma ampla variedade de formatos e as técnicas de modelagem continuam se tornando mais sofisticadas, as tarefas de um cientista de dados e engenheiro de ML ficam cada vez mais complexas. O Snowflake ML fornece os componentes básicos de que as equipes de ciência de dados e ML precisam para passar rapidamente do protótipo à produção de recursos e modelos na mesma plataforma usada para controlar e gerenciar seus dados. Organizações como CHG Healthcare, Stride, IGS Energy e Cooke Aquaculture estão criando modelos sofisticados de ML completos diretamente no Snowflake. Recentemente, anunciamos novos recursos para o desenvolvimento e o fornecimento de modelos de ML com GPUs distribuídas para casos de uso avançados, como sistemas de recomendação, visão de computador, integrações personalizadas e modelos de árvore de decisão

Diagram of Snowflake ML Capabilities
Figura 3. O Snowflake ML simplifica o desenvolvimento de modelos e os MLOps em uma única plataforma.

Acelere o desenvolvimento de ML com notebooks alimentados por GPU

As GPUs oferecem processamento avançado que agiliza as tarefas de ML com uso intenso de recursos, como treinamento de modelos. Esse processamento acelerado melhora significativamente a velocidade com que as equipes podem iterar e implementar modelos, especialmente quando trabalhando com grandes conjuntos de dados ou usando estruturas avançadas de aprendizado profundo, como PyTorch. Para dar suporte a fluxos de trabalho com uso intenso de recursos sem a necessidade de mover grandes volumes de dados e sem limitações quanto ao código ou bibliotecas que podem ser usados, o Snowflake ML agora oferece suporte ao Container Runtime (breve em versão preliminar pública no AWS e em versão preliminar pública no Azure), acessível por meio do Snowflake Notebooks (disponível ao público), uma superfície de desenvolvimento interativa unificada com base em células que combina Python, SQL e Markdown. 

Após testes internos, descobrimos que as APIs de ML do Snowflake no Container Runtime podem executar tarefas de treinamento de ML com eficiência em unidades de processamento gráfico (GPUs) com uma velocidade de execução de até 7 vezes mais do que ao executar a mesma carga de trabalho com seus dados do Snowflake usando bibliotecas de código aberto fora do tempo de execução. Esse tempo de execução totalmente gerenciado e baseado em contêineres vem pré-configurado com as bibliotecas e estruturas Python mais populares, com a flexibilidade de ser estendido a partir de hubs de código aberto, como PyPI e Hugging Face.

Dimensione a inferência em contêineres com GPUs

Após o desenvolvimento, é possível disponibilizar modelos para produção do Snowflake Model Registry para qualquer modelo de ML, LLM ou integração usando CPUs ou GPUs distribuídas no Snowpark Container Services (disponível ao público no Azure e AWS). Model Serving in Containers (em versão preliminar pública do AWS) possibilita inferência mais rápida e mais poderosa usando instâncias de GPU sob demanda sem a necessidade de otimização manual para utilização de recursos.

Detecte rapidamente a degradação do modelo com monitoramento integrado

Para manter os modelos de ML inferindo em produção, você pode usar o conjunto expandido de recursos de operações de aprendizado de máquina (machine learning, MLOps) integrados nativamente do Snowflake, incluindo Observability for ML Models (versão preliminar pública). Agora, as equipes podem rastrear, definir alertas e lidar rapidamente com a degradação, a deriva e outras métricas de modelos diretamente dos dashboards integrados vinculados ao Snowflake Model Registry. Também incorporado à plataforma é o ML Explicability (versão preliminar pública), que permite que os usuários calculem facilmente os valores Shapley para modelos conectados ao Snowflake Model Registry, treinados internamente ou externamente. 

Esses novos recursos de monitoramento de ML se unem ao conjunto de recursos MLOps disponíveis no Snowflake ML, incluindo Model Registry, ML Lineage (versão preliminar pública) e Feature Store (disponível ao público).  

Screenshot of Snowflake Model Registry monitoring
Figura 4. Os usuários podem monitorar o desempenho dos modelos de ML em produção diretamente da interface de usuário do Snowsight integrada ao Snowflake Model Registry.

Aproveite todo o poder dos dados corporativos com agentes de IA no Snowflake Intelligence

O Snowflake Intelligence (breve em versão preliminar privada) é uma plataforma para criar agentes de dados que capacitam usuários empresariais a analisar, resumir e agir com base em dados estruturados e não estruturados, tudo em uma interface unificada e conversacional. O Snowflake Intelligence permite que os usuários se conectem continuamente aos dados corporativos, como transações de vendas, documentos em bases de conhecimento, como SharePoint, e ferramentas de produtividade, como Jira e Google Workspace, para que os usuários empresariais possam gerar insights baseados em dados e agir tudo em linguagem natural sem precisar de habilidades técnicas ou conhecimento de programação.

Gif animation showing how Snowflake Intelligence works

Saber mais

Com as melhorias mais recentes do Cortex AI e do Snowflake ML, os desenvolvedores podem criar apps de IA generativa com confiança no ambiente seguro do Snowflake.

Comece a criar modelos personalizados e apps de IA e hoje mesmo usando estes recursos:

Observação: esta página contém declarações prospectivas, inclusive sobre nossas futuras ofertas de produtos. Elas não constituem compromissos de fornecimento ou produção de quaisquer ofertas de produtos. Os resultados e os produtos reais podem diferir e estão sujeitos a riscos e incertezas conhecidos e desconhecidos. Consulte nosso documento 10-Q mais recente para obter mais informações.

 

Photo illustration of two women collaborating near a computer and other images representing tech and teamwork
Ebook

Secrets of Gen AI Success

Discover how leaders like Bayer and Siemens Energy use gen AI to increase revenue, improve productivity and better serve customers.
Share Article

Subscribe to our blog newsletter

Get the best, coolest and latest delivered to your inbox each week

Comece seus 30 diasde avaliação gratuita

Teste o Snowflake sem custo por 30 dias e conheça o Data Cloud, que ajuda a eliminar a complexidade, o custo e as restrições de outras soluções.