스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake bejelenti az Arctic-ot, az iparág legnyitottabb vállalati szintű nagyméretű nyelvi modelljét

  • Írás nyelve: Koreai
  • Országkód: Minden országcountry-flag
  • Informatika

Létrehozva: 2024-04-25

Létrehozva: 2024-04-25 11:41

A Snowflake Arctic modellcsaládhoz a kategóriában legjobb teljesítményt és hatékonyságot nyújtó, nyílt forráskódú nagyméretű nyelvi modell került hozzáadásra

Apache 2.0 licenc alatt nyílt forráskódú… Különböző keretrendszerek támogatása révén rugalmasságot biztosít a testreszabáshoz

A Snowflake (Snowflake), a globális adatfelhő-vállalat bejelentette a vállalati szintű nagyméretű nyelvi modell (Large Language Model, LLM) „Snowflake Arctic” kiadását, amely a legjobb szintű nyitottsággal és teljesítménnyel rendelkezik a piacon.

A Snowflake saját szakértői keverékes (MoE – Mixture-of-Experts) módszerével tervezett Arctic a kategóriában legjobb teljesítményt és termelékenységet biztosítja. A vállalatok összetett igényeinek kezelésére is optimalizált, így a SQL-kód generálás, parancsok végrehajtása és egyéb területeken is a legjobb feltételeket biztosítja.

Különösen fontos, hogy az Arctic az Apache 2.0 licenc alapján ingyenesen, kereskedelmi célú felhasználásra is elérhető. A Snowflake nyilvánosságra hozta az AI-tanulási módszerek részletes információit, ezzel egy új, nyílt szabványt hozva létre a vállalati szintű AI-technológiák terén. Az Arctic LLM a Snowflake Arctic modellcsalád része, amely magában foglalja a szövegbeágyazási modelleket is a keresési funkciókhoz.

„A Snowflake AI kutatócsoportja az AI-kutatás élvonalában áll, és áttörést ért el a cég számára” – mondta Sridhar Ramaswamy, a Snowflake vezérigazgatója. „A Snowflake az iparág legjobb teljesítményű és hatékonyságú AI-ját teszi nyílt forráskódúvá az AI-közösség számára, ezzel kibővítve a nyílt forráskódú AI lehetőségeinek határait. Ez növeli a Snowflake képességeit is, hogy a ügyfeleknek képes és megbízható AI-modelleket biztosítson.”

◇ Arctic: nyílt forráskódú LLM széleskörű együttműködéshez

A Forrester piackutató cég friss jelentése szerint a globális vállalatok AI-döntéshozóinak mintegy 46%-a válaszolta azt, hogy „a generatív AI-t a vállalatukba való bevezetés részeként használják a meglévő nyílt forráskódú LLM-ekkel”. A Snowflake adatfelhő platformját jelenleg több mint 9400 vállalat és szervezet használja világszerte az adataik alapjául. A legjobb szintű nyitottságot biztosító LLM-ek révén ezek a szervezetek is képesek lesznek az adataikat kihasználni.

Az Apache 2.0 licenc alatt kiadott nyílt forráskódú Arctic modell rugalmasságot biztosít a kód sablonok használatában, valamint a következtetés és a tanulási módszerek kiválasztásában is. A felhasználók a vállalatok által preferált keretrendszerekkel, például az NVIDIA NIM-mel, az NVIDIA TensorRT-LLM-mel, a vLLM-mel és a Hugging Face-szel is használhatják és testreszabhatják az Arctic-ot. A Snowflake Cortex segítségével a szerver nélküli következtetés révén azonnal használható az Arctic. A Snowflake Cortex egy teljes körűen kezelt szolgáltatás, amely gépi tanulási és AI-megoldásokat biztosít az adatfelhőben, többek között a Hugging Face, Lamini, Microsoft Azure, Nvidia API katalógus, Perplexity, Together AI és egyéb modellek listájával. Az Amazon Web Services (AWS) is támogatni fogja az Arctic használatát a jövőben.

◇ Kiváló erőforrás-hatékonyság és legjobb szintű teljesítmény

A Snowflake AI kutatócsoportja a legjobb kutatókból és rendszermérnökökből áll. Az Arctic kifejlesztése kevesebb, mint 3 hónap alatt megtörtént. A modell betanításához Amazon Elastic Compute Cloud (Amazon EC2) P5 példányokat használtak, és a betanítási költségek a hasonló modellekhez képest nyolcadára csökkentek. A Snowflake új mércét állít fel a legmodernebb, nyílt forráskódú, vállalati szintű modellek betanítási sebességében, és végső soron segíti a felhasználókat, hogy költséghatékony és testreszabható modelleket hozzanak létre optimális méretben.

Az Arctic egyedi MoE kialakítása a vállalatok igényeihez igazított, gondosan megtervezett adatösszeállítás révén javítja a tanulási rendszert és a modell teljesítményét egyaránt. Emellett a 480 milliárd paraméter egyidejű aktiválásával 17-esével kiváló token-hatékonyságot és a kategória legjobb minőségét biztosítva a legjobb eredményeket éri el. Az Arctic a következtetés vagy a tanulás során kb. 50%-kal kevesebb paramétert aktivál a DBRX-hez képest, illetve kb. 75%-kal kevesebbet a Llama 3 70B-hez képest a forradalmi hatékonyság javítása érdekében. A kódolás (HumanEval+, MBPP+) és a SQL generálás (Spider) területén is felülmúlja a DBRX, Mixtral-8x7B és egyéb ismert nyílt forráskódú modellek teljesítményét, ugyanakkor a legjobb eredményeket éri el a természetes nyelvi megértésben (MMLU, nagyméretű több feladatú nyelvi megértés) is.

◇ A Snowflake vezette AI-forradalom mindenki számára

A Snowflake olyan adatbázist és legmodernebb AI-építőelemeket biztosít a vállalatok számára, amelyekkel saját adataik alapján fejleszthetnek gyakorlati AI/gépi tanulási alkalmazásokat. Ha az ügyfelek a Snowflake Cortex segítségével használják az Arctic-ot, akkor sokkal egyszerűbb lesz a termelési szintű AI-alkalmazások megfelelő méretben történő létrehozása az adatfelhő biztonsági és irányítási környezetében.

Az Arctic LLM-et tartalmazó Snowflake Arctic modellcsalád magában foglalja az Arctic Embed-et is, amely a Snowflake által nemrégiben kiadott legmodernebb szövegbeágyazási modellek egyike. Ez a termék Apache 2.0 licenc alatt nyílt forráskódú, és ingyenesen használható az open source közösség számára. Az 5 modellből álló termékcsalád a Hugging Face-en keresztül érhető el, és a Snowflake Cortexbe építve privát előnézetként érhető el. A hasonló modellekhez képest körülbelül egyharmadával kisebb beágyazási modell a legjobb keresési teljesítményre van optimalizálva, így a vállalatok számára hatékony és gazdaságos megoldást kínál, amikor az LLM-ekkel kombinálva a saját adatkészleteiket használják RAG vagy szemantikus keresési szolgáltatásokban.

A Snowflake nemrégiben hozzáadta a Reka és a Mistral AI modelljeit is, hogy az ügyfelei hozzáférhessenek az adatfelhőben elérhető legmodernebb, legjobb teljesítményű LLM-ekhez. Emellett az Nvidia-val való kibővített partnerségét is bejelentette az AI-innovációk folytatása érdekében. A Snowflake adatfelhője a teljes veremű Nvidia-gyorsított platformmal együtt biztonságos és hatékony infrastruktúrát és számítási kapacitást biztosít az AI-termelékenység széles körű kihasználásához az iparágakban. A Snowflake Ventures a közelmúltban a Landing AI, a Mistral AI és a Reka vállalatokba is befektetett, hogy támogassa az ügyfeleket abban, hogy az LLM-ek és az AI révén értéket teremtsenek a vállalati adataikból.



Hozzászólások0