- 스노우플레이크, 업계 최고 수준의 개방성 갖춘 엔터프라이즈급 LLM ‘아크틱’ 출시 > 뉴스 - 스타트업 커뮤니티 씬디스
- 스노우플레이크 아크틱 모델군에 동급 최고 성능·효율 갖춘 개방형 대규모언어모델 추가아파치 2.0 라이선스 기반 오픈소스… 다양한 프레임워크 지원…, 스타트업에 종사하시는 여러분들의 놀이터 씬디스는 스타트업 커뮤니티 입니다.
Aggiunta di un modello linguistico di grandi dimensioni (Large Language Model, LLM) open source di livello enterprise con prestazioni ed efficienza ottimali alla famiglia di modelli Snowflake Arctic
Open source con licenza Apache 2.0… Offre flessibilità di personalizzazione grazie al supporto di diversi framework
Snowflake (Snowflake), azienda globale di cloud dati, ha lanciato "Snowflake Arctic", un modello linguistico di grandi dimensioni (Large Language Model, LLM) di livello enterprise con un livello di apertura e prestazioni ai vertici del settore.
Arctic, progettato con il metodo MoE (Mixture-of-Experts) esclusivo di Snowflake, offre prestazioni e produttività di livello superiore. È ottimizzato per gestire le complesse esigenze aziendali e soddisfa i requisiti più elevati in vari ambiti, tra cui la generazione di codice SQL e l'esecuzione di comandi.
In particolare, Arctic è disponibile con licenza Apache 2.0, che consente l'utilizzo commerciale gratuito. Snowflake ha reso pubblici i dettagli del metodo di apprendimento automatico dell'intelligenza artificiale, stabilendo un nuovo standard di apertura per le tecnologie AI di livello enterprise. Inoltre, il modello linguistico di grandi dimensioni (LLM) Arctic fa parte della famiglia di modelli Snowflake Arctic e include anche un modello di incorporamento di testo per l'utilizzo nella ricerca.
Sridhar Ramaswamy, CEO di Snowflake, ha dichiarato: "Il team di ricerca sull'intelligenza artificiale di Snowflake ha guidato l'innovazione all'avanguardia dell'intelligenza artificiale, segnando un punto di svolta significativo per la nostra azienda." "Condividendo con la community dell'intelligenza artificiale un modello open source con prestazioni ed efficienza ai vertici del settore, Snowflake sta ampliando il potenziale dell'intelligenza artificiale open source. Stiamo anche rafforzando le capacità di intelligenza artificiale di Snowflake, consentendoci di fornire ai nostri clienti modelli di intelligenza artificiale affidabili e potenti."
◇ Arctic, un modello linguistico di grandi dimensioni (LLM) open source che supporta una vasta gamma di collaborazioni
Secondo un recente rapporto di Forrester, circa il 46% dei responsabili delle decisioni sull'intelligenza artificiale nelle aziende globali ha affermato di utilizzare modelli linguistici di grandi dimensioni (LLM) open source esistenti per integrare l'intelligenza artificiale generativa nelle proprie organizzazioni come parte della propria strategia di intelligenza artificiale. La piattaforma cloud dati di Snowflake è attualmente utilizzata da oltre 9.400 aziende e organizzazioni in tutto il mondo. Grazie al modello linguistico di grandi dimensioni (LLM) con il massimo livello di apertura del settore, possono sfruttare i propri dati.
Arctic, un modello open source con licenza Apache 2.0, offre flessibilità nella scelta tra metodi di inferenza e apprendimento, insieme a modelli di codice. Gli utenti possono utilizzare e personalizzare Arctic con i framework preferiti dalle aziende, tra cui NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM e Hugging Face. Snowflake Cortex consente anche l'utilizzo immediato di Arctic tramite inferenza serverless. Snowflake Cortex è un servizio completamente gestito che fornisce soluzioni di machine learning e intelligenza artificiale nel cloud dati, insieme a un elenco di modelli da varie fonti come Hugging Face, Lamini, Microsoft Azure, il catalogo API NVIDIA, Perplexity e Together AI. L'utilizzo di Arctic sarà disponibile anche su Amazon Web Services (AWS).
◇ Efficienza delle risorse eccezionale e prestazioni di alto livello
Il team di ricerca sull'intelligenza artificiale di Snowflake è composto da ricercatori e ingegneri di sistema di alto livello. Lo sviluppo di Arctic ha richiesto meno di tre mesi. Per l'addestramento del modello è stato utilizzato Amazon Elastic Compute Cloud (Amazon EC2) P5 Instance, con un costo di addestramento pari a un ottavo rispetto a modelli simili. Snowflake sta definendo nuovi standard per la velocità di addestramento dei modelli open source di livello enterprise all'avanguardia, con l'obiettivo finale di consentire agli utenti di creare modelli personalizzati ed efficienti dal punto di vista dei costi con la scala ottimale.
Il design MoE differenziato di Arctic migliora sia il sistema di apprendimento che le prestazioni del modello tramite un assemblaggio dei dati accuratamente progettato in base alle esigenze aziendali. Inoltre, attivando 480 miliardi di parametri 17 alla volta, raggiunge un'eccellente efficienza dei token e una qualità di livello superiore, offrendo i migliori risultati. Per migliorare radicalmente l'efficienza, Arctic attiva circa il 50% in meno di parametri rispetto a DBRX durante l'inferenza o l'addestramento e circa il 75% in meno rispetto a Llama 3 70B. Supera anche le prestazioni dei modelli open source esistenti come DBRX e Mixtral-8x7B in termini di codifica (HumanEval+, MBPP+) e generazione SQL (Spider), oltre a ottenere prestazioni di prim'ordine nella comprensione del linguaggio naturale (MMLU, comprensione del linguaggio naturale a più attività su larga scala).
◇ L'innovazione dell'intelligenza artificiale per tutti, guidata da Snowflake
Snowflake fornisce la base dati e i blocchi di costruzione di intelligenza artificiale all'avanguardia necessari alle aziende per creare applicazioni pratiche di intelligenza artificiale/machine learning utilizzando i propri dati. Quando i clienti utilizzano Arctic tramite Snowflake Cortex, diventa più semplice creare applicazioni di intelligenza artificiale di livello produzione con la scala appropriata all'interno dei confini di sicurezza e governance del cloud dati.
La famiglia di modelli Snowflake Arctic, che include il modello linguistico di grandi dimensioni (LLM) Arctic, comprende anche Arctic Embed, uno dei modelli di incorporamento di testo all'avanguardia di recente rilascio da parte di Snowflake. Questo prodotto è open source con licenza Apache 2.0 ed è disponibile gratuitamente per la community open source. Questa famiglia di cinque modelli è disponibile su Hugging Face e verrà presto integrata in Snowflake Cortex in una versione di anteprima privata. Questo modello di incorporamento, che è circa un terzo delle dimensioni di modelli simili, è ottimizzato per le massime prestazioni di ricerca, offrendo alle aziende una soluzione efficiente ed economica quando combinano i propri set di dati con modelli linguistici di grandi dimensioni (LLM) come parte di servizi di ricerca semantica o di ricerca aumentata dalla generazione (RAG).
Snowflake sta anche lavorando per garantire ai clienti l'accesso ai modelli linguistici di grandi dimensioni (LLM) più performanti e recenti nel cloud dati, aggiungendo di recente i modelli di Reka e Mistral AI. Inoltre, continua a promuovere l'innovazione dell'intelligenza artificiale attraverso la sua partnership estesa con NVIDIA. Il cloud dati di Snowflake, in combinazione con la piattaforma NVIDIA accelerata completa, fornisce capacità di elaborazione e infrastrutture sicure e potenti per sfruttare appieno la produttività dell'intelligenza artificiale in tutti i settori. Snowflake Ventures ha recentemente investito anche in Landing AI, Mistral AI e Reka per aiutare i clienti a generare valore dai modelli linguistici di grandi dimensioni (LLM) e dall'intelligenza artificiale utilizzando i propri dati aziendali.
Commenti0