Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Questo è un post tradotto da IA.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake lancia 'Arctic', un LLM aziendale con un'apertura di livello superiore

Seleziona la lingua

  • Italiano
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Testo riassunto dall'intelligenza artificiale durumis

  • Snowflake ha lanciato 'Arctic', un modello linguistico di grandi dimensioni (LLM) open source con prestazioni ed efficienza di livello superiore.
  • Arctic è disponibile per uso commerciale gratuito con licenza Apache 2.0 e supporta diversi framework per una personalizzazione flessibile.
  • Con Arctic, Snowflake fornisce alle aziende le basi dati e i blocchi di costruzione di intelligenza artificiale all'avanguardia necessari per creare app di intelligenza artificiale/machine learning pratiche utilizzando i propri dati.

Aggiunta di un modello linguistico di grandi dimensioni (LLM) di livello superiore aperto con prestazioni ed efficienza ottimali alla famiglia di modelli SnowFlake Arctic

Open source sotto licenza Apache 2.0… Offre flessibilità personalizzabile con il supporto di vari framework

Snowflake, azienda globale di cloud di dati, ha rilasciato "Snowflake Arctic", un modello linguistico di grandi dimensioni (LLM) di livello enterprise con un'apertura e prestazioni di livello superiore nel settore.

Arctic, progettato con l'esclusivo approccio MoE (Mixture-of-Experts) di Snowflake, offre prestazioni e produttività di livello superiore. È ottimizzato per gestire le complesse esigenze aziendali e soddisfa i requisiti ottimali in vari criteri, tra cui la generazione di codice SQL e l'esecuzione di comandi.

In particolare, Arctic è concesso in licenza Apache 2.0, che consente un uso commerciale gratuito. Snowflake ha reso pubblici i dettagli sul metodo di apprendimento dell'IA, stabilendo un nuovo standard aperto per la tecnologia AI di livello enterprise. Inoltre, l'Arctic LLM fa parte della famiglia di modelli Arctic di Snowflake e include anche un modello di incorporamento di testo per l'uso della ricerca.

Sridhar Ramaswamy, CEO di Snowflake, ha affermato: "Il team di ricerca sull'IA di Snowflake è all'avanguardia nell'innovazione nel settore dell'IA, aprendo la strada a un punto di svolta per la nostra azienda". "Snowflake sta aprendo nuove strade nelle possibilità dell'IA open source rendendo disponibili prestazioni ed efficienza di livello superiore alla comunità dell'IA con un'opzione open source. Stiamo anche migliorando le capacità di IA di Snowflake per fornire ai nostri clienti modelli di IA affidabili e potenti".

◇ Arctic, un LLM open source che supporta una vasta collaborazione

Secondo un recente rapporto di Forrester, un'azienda di ricerche di mercato, circa il 46% dei decision maker di AI nelle aziende globali ha affermato che "utilizzano LLM open source esistenti per introdurre l'IA generativa nelle proprie aziende come parte della loro strategia di AI". La piattaforma di cloud di dati di Snowflake è attualmente utilizzata dai dati di oltre 9.400 aziende e organizzazioni in tutto il mondo. Possono utilizzare i dati con LLM che offrono un livello di apertura di livello superiore nel settore.

Arctic, un modello open source concesso in licenza Apache 2.0, offre anche la flessibilità di scegliere tra inferenza e metodi di apprendimento insieme ai modelli di codice. Gli utenti possono utilizzare ed eseguire la personalizzazione di Arctic con framework preferiti dalle aziende, tra cui NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM e Hugging Face. Arctic può anche essere utilizzato immediatamente tramite l'inferenza serverless su Snowflake Cortex. Snowflake Cortex è un servizio completamente gestito che offre soluzioni di machine learning e AI nel cloud di dati con un elenco di modelli diversi, tra cui Hugging Face, Lamini, Microsoft Azure, catalogo API di NVIDIA, Perplexity, Together AI e altro ancora. L'utilizzo di Arctic diventerà disponibile anche su Amazon Web Services (AWS).

◇ Efficienza delle risorse superiore e prestazioni di livello superiore

Il team di ricerca sull'IA di Snowflake è composto da alcuni dei migliori ricercatori e ingegneri di sistema del settore. Lo sviluppo di Arctic ha richiesto meno di tre mesi. Per l'addestramento del modello è stata utilizzata l'istanza Amazon Elastic Compute Cloud (Amazon EC2) P5 e i costi di addestramento sono stati solo un ottavo rispetto ai modelli simili. Snowflake imposta un nuovo standard per la velocità di addestramento dei modelli enterprise open source di ultima generazione, consentendo in definitiva agli utenti di creare modelli efficaci dal punto di vista dei costi e personalizzati alla scala ottimale.

Il design MoE differenziato di Arctic migliora sia il sistema di apprendimento che le prestazioni del modello tramite l'assemblaggio di dati progettati finemente in base alle esigenze aziendali. Inoltre, attiva 480 miliardi di parametri 17 alla volta, fornendo un'eccellente efficienza dei token e una qualità di livello superiore per fornire i migliori risultati. Arctic attiva circa il 50% in meno dei parametri rispetto a DBRX durante l'inferenza o l'addestramento per un miglioramento efficiente della velocità, e circa il 75% in meno rispetto a Llama 3 70B. Surclassa le prestazioni dei modelli open source esistenti come DBRX e Mixtral-8x7B in termini di codifica (HumanEval+, MBPP+) e generazione SQL (Spider), offrendo al contempo prestazioni di prim'ordine nella comprensione del linguaggio naturale (MMLU, comprensione del linguaggio di diversi compiti su larga scala).

◇ L'innovazione dell'IA per tutti, guidata da Snowflake

Snowflake fornisce le fondamenta dei dati e i blocchi di costruzione AI di ultima generazione necessari per creare app AI/machine learning pratiche utilizzando i propri dati. Quando i clienti utilizzano Arctic tramite Snowflake Cortex, è più semplice costruire app AI di livello produttivo su scala appropriata all'interno della sicurezza e della governance del cloud di dati.

La famiglia di modelli Arctic di Snowflake, che include l'Arctic LLM, include anche Arctic embed, uno dei modelli di incorporamento di testo di ultima generazione di recente rilascio di Snowflake. Questo prodotto è disponibile gratuitamente nella community open source con licenza Apache 2.0. Questa famiglia di modelli composta da cinque modelli è disponibile direttamente su Hugging Face ed è prevista la sua disponibilità come anteprima privata integrata in Snowflake Cortex. Con circa un terzo delle dimensioni dei modelli simili, questo modello di incorporamento è ottimizzato per prestazioni di ricerca di livello superiore, offrendo alle aziende una soluzione efficace ed economica per combinare set di dati unici con LLM come parte dei loro servizi di ricerca aumentata generativa (RAG) o ricerca semantica.

Di recente, Snowflake ha aggiunto anche i modelli di Reka e Mistral AI per consentire ai clienti di accedere ai LLM più recenti e performanti nel cloud di dati. Inoltre, Snowflake sta continuando la sua innovazione AI con la sua partnership ampliata di recente con NVIDIA. Il cloud di dati di Snowflake si integra con la piattaforma di accelerazione NVIDIA full-stack per fornire un'infrastruttura e una potenza di calcolo sicure e robuste per sfruttare proattivamente la produttività dell'IA in tutti i settori. Snowflake Ventures ha recentemente investito anche in Landing AI, Mistral AI e Reka per aiutare i clienti a sfruttare il valore di LLM e AI dai propri dati aziendali.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake, rapporto sulle tendenze dei dati 2024: gli sviluppatori di AI creano in media 90 app al giorno Secondo un'indagine condotta su oltre 9.000 clienti, Snowflake ha rilevato che la quota di chatbot tra le app LLM è aumentata, i sviluppatori preferiscono Python e la quantità di dati non strutturati gestiti è in crescita. Scopri di più nel rapporto sulle

16 maggio 2024

SK C&C, presenta la piattaforma 'Soluer LLMOps' per supportare l'implementazione di sLLM personalizzati per i clienti SK C&C ha lanciato 'Soluer LLMOps', una piattaforma per la costruzione di modelli linguistici di grandi dimensioni (sLLM) personalizzati per le aziende. Questa piattaforma consente di creare facilmente sLLM utilizzando il trascinamento della selezione e s

20 maggio 2024

Pliro e Upstage firmano un accordo per la costruzione di dati linguistici di intelligenza artificiale Pliro e Upstage hanno firmato un accordo di collaborazione per la costruzione di dati linguistici a basse risorse nella regione asiatica. Attraverso questa collaborazione, le due aziende mirano a rafforzare la cooperazione per migliorare le prestazioni de

9 maggio 2024

AI Full Stack completo con Open Source Nel panorama dell'intelligenza artificiale stanno emergendo sempre più modelli LLM (Large Language Model) open source. Modelli come Mistral, Llama e phi-2, con prestazioni elevate e licenze open source, sono stati rilasciati, e contemporaneamente vengono
RevFactory
RevFactory
RevFactory
RevFactory

5 febbraio 2024

Pubblicazione di OpenELM di Apple / Phi-3 di MS / Llama 3 di Meta Apple, Microsoft e Meta, tra le principali aziende Big Tech, stanno introducendo una ventata di novità nel settore dell'IA con la recente pubblicazione dei loro modelli linguistici di grandi dimensioni di sviluppo interno. I modelli lanciati di recente si
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 aprile 2024

Cos'è un modello linguistico di grandi dimensioni (LLM)? I modelli linguistici di grandi dimensioni (LLM) sono una tecnologia di base dell'intelligenza artificiale che impara da un'enorme quantità di dati di testo per acquisire capacità di elaborazione del linguaggio simili a quelle umane, e possono essere util
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 aprile 2024

Il paradosso dei modelli AI leader, la trasparenza La mancanza di trasparenza nei sistemi AI all'avanguardia è diventata un problema serio. I ricercatori della Stanford University hanno analizzato 10 sistemi AI, tra cui GPT-4, e hanno concluso che nessun modello ha pubblicato in modo trasparente informazi
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 maggio 2024

Mr. Know-All – 2023.7 Il primo numero della rivista mensile di intelligenza artificiale "Mr. Know-All" di luglio 2023 presenta Claude 2, Azure OpenAI, LangChain, LlamaIndex e altre tecnologie e tendenze di intelligenza artificiale all'avanguardia. In particolare, viene fornita
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marzo 2024

Mr. Know-All 6호 - Marzo 2024 Presentiamo LM Studio, una piattaforma che consente di eseguire LLM open source come LLaMa, Falcon, MPT e StarCoder in locale, oltre a strumenti e servizi AI come Devin, un ingegnere software AI, e crewAI, una piattaforma di automazione multi-agente. Pres
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marzo 2024