![translation](https://cdn.durumis.com/common/trans.png)
Ez egy AI által fordított bejegyzés.
A Snowflake bemutatta az Arctic-ot, az iparág legjobb nyitottságú, vállalati szintű LLM-jét
- Írás nyelve: Koreai
- •
-
Referencia ország: Minden ország
- •
- Informatika
Válasszon nyelvet
A durumis AI által összefoglalt szöveg
- A Snowflake bemutatta az Arctic-ot, egy nyílt forráskódú, nagyméretű nyelvi modellt (LLM), amely a legjobb teljesítményt és hatékonyságot nyújtja.
- Az Arctic az Apache 2.0 licenc alatt ingyenesen kereskedelmi célra is felhasználható, és számos keretrendszer támogatása révén testreszabható.
- A Snowflake az Arctic segítségével lehetővé teszi a vállalatok számára, hogy saját adataik felhasználásával készítsenek gyakorlati AI/ gépi tanulási alkalmazásokat, amelyekhez a szükséges adatbázis és a legmodernebb AI-építőblokkok is rendelkezésre állnak.
A Snowflake Arctic modellcsaládhoz hozzáadtak egy a kategóriájában vezető teljesítményt és hatékonyságot nyújtó, nyílt forráskódú, nagyméretű nyelvi modellt.
Az Apache 2.0 licenc alatt kiadott nyílt forráskódú modell... A különböző keretrendszerek támogatása révén rugalmas testreszabási lehetőségeket biztosít.
A Snowflake, a globális adatfelhő-szolgáltató bejelentette a Snowflake Arctic, egy vállalati szintű, nagyméretű nyelvi modellt (LLM), amely a kategóriájában vezető nyitottságot és teljesítményt kínálja.
Az Arctic, amelyet a Snowflake egyedi szakértő-keverési (MoE - Mixture-of-Experts) megközelítése alapján terveztek, a kategóriájában vezető teljesítményt és termelékenységet biztosít. Az Arctic a vállalati szintű, összetett követelmények kielégítésére is optimalizálva van, és a legjobb eredményeket éri el különféle mércék szerint, beleértve az SQL-kód generálását és a parancsok végrehajtását is.
Az Arctic különösen figyelemre méltó az Apache 2.0 licenc alatt történő ingyenes, kereskedelmi felhasználás lehetőségének köszönhetően. A Snowflake nyilvánosságra hozta az AI-tanulási módszerek részleteit, ezzel új, nyílt szabványt állítva fel a vállalati szintű AI-technológiák terén. Az Arctic LLM a Snowflake Arctic modellcsalád része, amely magában foglalja a szövegbeágyazási modelleket is a keresési alkalmazásokhoz.
Sridhar Ramaswamy, a Snowflake vezérigazgatója elmondta: „A Snowflake AI-kutatócsoportja forradalmi változásokat hozott az AI területén, és jelentős fordulóponthoz vezette a céget." „A Snowflake azáltal, hogy a kategóriájában vezető teljesítményt és hatékonyságot nyújtó AI-t tesz nyílt forráskódúvá az AI-közösség számára, kibővíti a nyílt forráskódú AI lehetőségeit. A Snowflake AI-képességei is javulnak, lehetővé téve, hogy hatékony és megbízható AI-modelleket biztosítsunk ügyfeleink számára."
◇ Az Arctic, egy nyílt forráskódú LLM, amely széles körű együttműködést támogat
A Forrester piaci kutatóintézet legutóbbi jelentése szerint a globális vállalatok AI-döntéshozóinak körülbelül 46%-a azt állította, hogy „generatív AI-t fognak bevezetni vállalatukba, a meglévő nyílt forráskódú LLM-ek felhasználásával, az AI-stratégia részeként". A Snowflake adatfelhő-platformját jelenleg több mint 9400 vállalat és szervezet használja világszerte. Az LLM-ek, amelyek iparági szinten a legjobb nyitottságot biztosítják, lehetővé teszik az adatok hatékony felhasználását.
Az Arctic, az Apache 2.0 licenc alatt kiadott nyílt forráskódú modell, rugalmasságot biztosít a kód sablonok és az következtetési/tanulási módszerek kiválasztásában. A felhasználók a választott keretrendszereken keresztül, például az NVIDIA NIM, az NVIDIA TensorRT-LLM, a vLLM és a Hugging Face, használhatják és testreszabhatják az Arctic modellt. Az Arctic azonnali használatra kész a Snowflake Cortex-ben, a kiszolgáló nélküli következtetésen keresztül. A Snowflake Cortex teljesen felügyelt szolgáltatás, amely gépi tanulási és AI-megoldásokat biztosít az adatfelhőben, számos modellkatalógussal együtt, beleértve a Hugging Face, a Lamini, a Microsoft Azure, az NVIDIA API-katalógus, a Perplexity és a Together AI modelleket. Az Arctic várhatóan elérhetővé válik az Amazon Web Services (AWS) szolgáltatásán keresztül is.
◇ Kiváló erőforrás-hatékonyság és a kategóriájában vezető teljesítmény
A Snowflake AI-kutatócsoportját a legjobb kutatók és rendszermérnökök alkotják. Az Arctic kidolgozásához kevesebb, mint 3 hónap időre volt szükség. A modell betanításához az Amazon Elastic Compute Cloud (Amazon EC2) P5 példányait használták, a tanulási költségek pedig a hasonló modellekhez képest 8-szor alacsonyabbak voltak. A Snowflake új mércét állít fel a korszerű, nyílt forráskódú, vállalati szintű modellek tanulási sebességének terén, végső soron lehetővé téve a felhasználók számára, hogy költséghatékony és testreszabott modelleket hozzanak létre az optimális méretezés érdekében.
Az Arctic megkülönböztető MoE kialakítása javítja a tanulási rendszer és a modell teljesítményét, az igényeknek megfelelően finomhangolt adatgyűjtemények révén. Továbbá 480 milliárd paramétert aktivál egyszerre, 17-es csoportokban, így kiváló token-hatékonyságot és iparági szinten vezető minőséget biztosít, a lehető legjobb eredményeket elérve. Az Arctic jelentős hatékonyságnövekedést ér el a következtetés vagy a tanulás során, kb. 50%-kal kevesebb paramétert aktivál a DBRX-hez képest, és kb. 75%-kal kevesebbet a Llama 3 70B-hez képest. A kódolás (HumanEval+, MBPP+) és az SQL-generálás (Spider) terén is felülmúlja a DBRX, a Mixtral-8x7B és más kiemelkedő meglévő nyílt forráskódú modellek teljesítményét, ugyanakkor a legjobb eredményeket éri el az általános nyelvi megértés (MMLU, nagyméretű, több feladatú nyelvi megértés) terén is.
◇ A Snowflake vezette AI-forradalom mindenkinek
A Snowflake olyan adatbázist és a legmodernebb AI-építőelemeket biztosít a vállalatok számára, amelyekkel hasznos AI/gépi tanulási alkalmazásokat hozhatnak létre saját adataik felhasználásával. Amikor az ügyfelek az Arctic modellt a Snowflake Cortexen keresztül használják, könnyebben építhetnek termelési szintű AI-alkalmazásokat az optimális méretezéshez, az adatfelhő biztonsági és irányítási környezetén belül.
A Snowflake Arctic modellcsalád, amely magában foglalja az Arctic LLM-et, magában foglalja az Arctic Embed-et is, amely a Snowflake által nemrégiben kiadott, a legmodernebb szövegbeágyazási modellek egyike. A termék Apache 2.0 licenc alatt hozzáférhető az nyílt forráskódú közösség számára. Az öt modellből álló modellcsalád közvetlenül elérhető a Hugging Face webhelyen, és a Snowflake Cortexen belül is elérhető lesz magánbétában. A beágyazási modell, amely a hasonló modellek körülbelül harmadának méretével rendelkezik, optimalizálva van a legjobb keresési teljesítmény biztosítására, így hatékony és gazdaságos megoldást kínál a vállalatok számára a saját adatgyűjteményeik LLM-ekkel való integrálásához a kereséssel kiegészített generáláshoz (RAG) vagy a szemantikai keresési szolgáltatásokhoz.
A Snowflake nemrégiben hozzáadta a Reka és a Mistral AI modelljeit is, lehetővé téve az ügyfelek számára, hogy a lehető legjobb teljesítményt nyújtó, legújabb LLM-ekhez férjenek hozzá az adatfelhőben. Emellett nemrégiben bejelentették az NVIDIA-val fennálló bővített partnerségi kapcsolatukat, amely az AI-innováció folyamatos támogatását jelzi. A Snowflake adatfelhője a teljes körű NVIDIA-gyorsított platformmal kombinálva biztonságos és robusztus infrastruktúrát és számítási kapacitást biztosít az AI-termelékenység növeléséhez az iparágakban. A Snowflake Ventures nemrégiben befektetett a Landing AI, a Mistral AI és a Reka cégekbe is, hogy támogassa az ügyfeleket a vállalati adatokban rejlő érték kiaknázásában az LLM és az AI segítségével.