![translation](https://cdn.durumis.com/common/trans.png)
Questo è un post tradotto da IA.
Snowflake lancia 'Arctic', un LLM aziendale con un'apertura di livello superiore
- Lingua di scrittura: Coreana
- •
-
Paese di riferimento: Tutti i paesi
- •
- Tecnologia dell'informazione
Seleziona la lingua
Testo riassunto dall'intelligenza artificiale durumis
- Snowflake ha lanciato 'Arctic', un modello linguistico di grandi dimensioni (LLM) open source con prestazioni ed efficienza di livello superiore.
- Arctic è disponibile per uso commerciale gratuito con licenza Apache 2.0 e supporta diversi framework per una personalizzazione flessibile.
- Con Arctic, Snowflake fornisce alle aziende le basi dati e i blocchi di costruzione di intelligenza artificiale all'avanguardia necessari per creare app di intelligenza artificiale/machine learning pratiche utilizzando i propri dati.
Aggiunta di un modello linguistico di grandi dimensioni (LLM) di livello superiore aperto con prestazioni ed efficienza ottimali alla famiglia di modelli SnowFlake Arctic
Open source sotto licenza Apache 2.0… Offre flessibilità personalizzabile con il supporto di vari framework
Snowflake, azienda globale di cloud di dati, ha rilasciato "Snowflake Arctic", un modello linguistico di grandi dimensioni (LLM) di livello enterprise con un'apertura e prestazioni di livello superiore nel settore.
Arctic, progettato con l'esclusivo approccio MoE (Mixture-of-Experts) di Snowflake, offre prestazioni e produttività di livello superiore. È ottimizzato per gestire le complesse esigenze aziendali e soddisfa i requisiti ottimali in vari criteri, tra cui la generazione di codice SQL e l'esecuzione di comandi.
In particolare, Arctic è concesso in licenza Apache 2.0, che consente un uso commerciale gratuito. Snowflake ha reso pubblici i dettagli sul metodo di apprendimento dell'IA, stabilendo un nuovo standard aperto per la tecnologia AI di livello enterprise. Inoltre, l'Arctic LLM fa parte della famiglia di modelli Arctic di Snowflake e include anche un modello di incorporamento di testo per l'uso della ricerca.
Sridhar Ramaswamy, CEO di Snowflake, ha affermato: "Il team di ricerca sull'IA di Snowflake è all'avanguardia nell'innovazione nel settore dell'IA, aprendo la strada a un punto di svolta per la nostra azienda". "Snowflake sta aprendo nuove strade nelle possibilità dell'IA open source rendendo disponibili prestazioni ed efficienza di livello superiore alla comunità dell'IA con un'opzione open source. Stiamo anche migliorando le capacità di IA di Snowflake per fornire ai nostri clienti modelli di IA affidabili e potenti".
◇ Arctic, un LLM open source che supporta una vasta collaborazione
Secondo un recente rapporto di Forrester, un'azienda di ricerche di mercato, circa il 46% dei decision maker di AI nelle aziende globali ha affermato che "utilizzano LLM open source esistenti per introdurre l'IA generativa nelle proprie aziende come parte della loro strategia di AI". La piattaforma di cloud di dati di Snowflake è attualmente utilizzata dai dati di oltre 9.400 aziende e organizzazioni in tutto il mondo. Possono utilizzare i dati con LLM che offrono un livello di apertura di livello superiore nel settore.
Arctic, un modello open source concesso in licenza Apache 2.0, offre anche la flessibilità di scegliere tra inferenza e metodi di apprendimento insieme ai modelli di codice. Gli utenti possono utilizzare ed eseguire la personalizzazione di Arctic con framework preferiti dalle aziende, tra cui NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM e Hugging Face. Arctic può anche essere utilizzato immediatamente tramite l'inferenza serverless su Snowflake Cortex. Snowflake Cortex è un servizio completamente gestito che offre soluzioni di machine learning e AI nel cloud di dati con un elenco di modelli diversi, tra cui Hugging Face, Lamini, Microsoft Azure, catalogo API di NVIDIA, Perplexity, Together AI e altro ancora. L'utilizzo di Arctic diventerà disponibile anche su Amazon Web Services (AWS).
◇ Efficienza delle risorse superiore e prestazioni di livello superiore
Il team di ricerca sull'IA di Snowflake è composto da alcuni dei migliori ricercatori e ingegneri di sistema del settore. Lo sviluppo di Arctic ha richiesto meno di tre mesi. Per l'addestramento del modello è stata utilizzata l'istanza Amazon Elastic Compute Cloud (Amazon EC2) P5 e i costi di addestramento sono stati solo un ottavo rispetto ai modelli simili. Snowflake imposta un nuovo standard per la velocità di addestramento dei modelli enterprise open source di ultima generazione, consentendo in definitiva agli utenti di creare modelli efficaci dal punto di vista dei costi e personalizzati alla scala ottimale.
Il design MoE differenziato di Arctic migliora sia il sistema di apprendimento che le prestazioni del modello tramite l'assemblaggio di dati progettati finemente in base alle esigenze aziendali. Inoltre, attiva 480 miliardi di parametri 17 alla volta, fornendo un'eccellente efficienza dei token e una qualità di livello superiore per fornire i migliori risultati. Arctic attiva circa il 50% in meno dei parametri rispetto a DBRX durante l'inferenza o l'addestramento per un miglioramento efficiente della velocità, e circa il 75% in meno rispetto a Llama 3 70B. Surclassa le prestazioni dei modelli open source esistenti come DBRX e Mixtral-8x7B in termini di codifica (HumanEval+, MBPP+) e generazione SQL (Spider), offrendo al contempo prestazioni di prim'ordine nella comprensione del linguaggio naturale (MMLU, comprensione del linguaggio di diversi compiti su larga scala).
◇ L'innovazione dell'IA per tutti, guidata da Snowflake
Snowflake fornisce le fondamenta dei dati e i blocchi di costruzione AI di ultima generazione necessari per creare app AI/machine learning pratiche utilizzando i propri dati. Quando i clienti utilizzano Arctic tramite Snowflake Cortex, è più semplice costruire app AI di livello produttivo su scala appropriata all'interno della sicurezza e della governance del cloud di dati.
La famiglia di modelli Arctic di Snowflake, che include l'Arctic LLM, include anche Arctic embed, uno dei modelli di incorporamento di testo di ultima generazione di recente rilascio di Snowflake. Questo prodotto è disponibile gratuitamente nella community open source con licenza Apache 2.0. Questa famiglia di modelli composta da cinque modelli è disponibile direttamente su Hugging Face ed è prevista la sua disponibilità come anteprima privata integrata in Snowflake Cortex. Con circa un terzo delle dimensioni dei modelli simili, questo modello di incorporamento è ottimizzato per prestazioni di ricerca di livello superiore, offrendo alle aziende una soluzione efficace ed economica per combinare set di dati unici con LLM come parte dei loro servizi di ricerca aumentata generativa (RAG) o ricerca semantica.
Di recente, Snowflake ha aggiunto anche i modelli di Reka e Mistral AI per consentire ai clienti di accedere ai LLM più recenti e performanti nel cloud di dati. Inoltre, Snowflake sta continuando la sua innovazione AI con la sua partnership ampliata di recente con NVIDIA. Il cloud di dati di Snowflake si integra con la piattaforma di accelerazione NVIDIA full-stack per fornire un'infrastruttura e una potenza di calcolo sicure e robuste per sfruttare proattivamente la produttività dell'IA in tutti i settori. Snowflake Ventures ha recentemente investito anche in Landing AI, Mistral AI e Reka per aiutare i clienti a sfruttare il valore di LLM e AI dai propri dati aziendali.