- 스노우플레이크, 업계 최고 수준의 개방성 갖춘 엔터프라이즈급 LLM ‘아크틱’ 출시 > 뉴스 - 스타트업 커뮤니티 씬디스
- 스노우플레이크 아크틱 모델군에 동급 최고 성능·효율 갖춘 개방형 대규모언어모델 추가아파치 2.0 라이선스 기반 오픈소스… 다양한 프레임워크 지원…, 스타트업에 종사하시는 여러분들의 놀이터 씬디스는 스타트업 커뮤니티 입니다.
Dodanie do rodziny modeli Snowflake Arctic otwartego, dużego modelu językowego o najlepszych w swojej klasie wydajności i efektywności
Open source na licencji Apache 2.0… Zapewnia elastyczność dzięki obsłudze różnych frameworków, co umożliwia dostosowywanie
Snowflake (Snowflake), globalna firma zajmująca się chmurą danych, ogłosiła wprowadzenie na rynek „Snowflake Arctic”, korporacyjnego, dużego modelu językowego (Large Language Model, LLM) o najwyższym poziomie otwartości i wydajności w branży.
Zaprojektowany z wykorzystaniem unikalnego podejścia Snowflake opartego na mieszance ekspertów (MoE – Mixture-of-Experts), Arctic zapewnia najlepszą w swojej klasie wydajność i produktywność. Jest również zoptymalizowany pod kątem obsługi złożonych wymagań biznesowych, spełniając najwyższe standardy w różnych obszarach, takich jak generowanie kodu SQL, wykonywanie poleceń itp.
Warto podkreślić, że Arctic jest dostępny na licencji Apache 2.0, co oznacza, że jest bezpłatny i może być wykorzystywany w celach komercyjnych. Snowflake ujawnił szczegółowe informacje na temat metod uczenia AI, ustanawiając nowy otwarty standard dla technologii AI klasy korporacyjnej. Ponadto model językowy Arctic jest częścią rodziny modeli Snowflake Arctic (Snowflake Arctic model family) i obejmuje również model osadzania tekstu do celów wyszukiwania.
„Zespół badawczy AI w Snowflake dokonuje przełomowych innowacji w dziedzinie sztucznej inteligencji, co stanowi znaczący punkt zwrotny dla naszej firmy” – powiedział Sridhar Ramaswamy, CEO Snowflake. „Udostępniając społeczności AI najlepszą w branży wydajność i efektywność w ramach projektu open source, Snowflake poszerza granice możliwości AI opartego na open source. Wzmacniamy również możliwości AI Snowflake, oferując klientom wydajne i niezawodne modele AI”.
◇ Arctic, otwarty model językowy LLM wspierający szeroką współpracę
Zgodnie z najnowszym raportem Forrestera, około 46% decydentów ds. AI w globalnych firmach deklaruje, że „w ramach swojej strategii AI wykorzystują istniejące otwarte modele językowe LLM do wdrażania generatywnej sztucznej inteligencji w swoich organizacjach”. Platforma Snowflake Data Cloud jest obecnie wykorzystywana przez ponad 9400 firm i instytucji na całym świecie. Dzięki LLM oferującemu najwyższy poziom otwartości w branży, mogą one w pełni wykorzystać potencjał swoich danych.
Arctic, jako otwarty model na licencji Apache 2.0, oferuje elastyczność w zakresie wyboru metody wnioskowania i uczenia wraz z szablonami kodu. Użytkownicy mogą korzystać z Arctic i dostosowywać go za pomocą preferowanych frameworków, takich jak NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM, Hugging Face. Możliwe jest również natychmiastowe użycie Arctic za pośrednictwem wnioskowania bezserwerowego w Snowflake Cortex. Snowflake Cortex to w pełni zarządzana usługa, która zapewnia rozwiązania AI i uczenia maszynowego w chmurze danych, wraz z szeroką gamą modeli, w tym Hugging Face, Lamini, Microsoft Azure, katalogiem API NVIDIA, Perplexity, Together AI. Użytkowanie Arctic będzie również dostępne w Amazon Web Services (AWS).
◇ Doskonała efektywność wykorzystania zasobów i najwyższy poziom wydajności
Zespół badawczy AI Snowflake składa się z najlepszych naukowców i inżynierów systemowych w branży. Budowa Arctic zajęła mniej niż 3 miesiące. Do trenowania modelu wykorzystano instancje Amazon Elastic Compute Cloud (Amazon EC2) P5, a koszty szkolenia były o 8 razy niższe w porównaniu do podobnych modeli. Snowflake ustanawia nowy standard w zakresie szybkości uczenia się zaawansowanych, otwartych modeli klasy korporacyjnej, ostatecznie umożliwiając użytkownikom tworzenie modeli dostosowanych do ich potrzeb i optymalnych pod względem kosztów w odpowiedniej skali.
Unikalna konstrukcja Arctic oparta na MoE pozwala na udoskonalenie zarówno systemu uczenia, jak i wydajności modelu dzięki precyzyjnemu projektowaniu zestawów danych w zależności od potrzeb biznesowych. Ponadto, aktywacja 480 miliardów parametrów w pakietach po 17 jednocześnie zapewnia wyjątkową efektywność tokenów i najlepszą w branży jakość, co przekłada się na najlepsze wyniki. W celu zwiększenia efektywności, Arctic aktywuje mniej parametrów podczas wnioskowania i uczenia się — o około 50% mniej niż DBRX i o około 75% mniej niż Llama 3 70B. W zakresie kodowania (HumanEval+, MBPP+) i generowania SQL (Spider) Arctic przewyższa wydajnością popularne istniejące modele open source, takie jak DBRX i Mixtral-8x7B, a jednocześnie osiąga najwyższe wyniki w zakresie ogólnego rozumienia języka (MMLU, Large-scale Multitask Language Understanding).
◇ Innowacje w dziedzinie AI dla wszystkich, pod przewodnictwem Snowflake
Snowflake dostarcza firmom podstawę danych i zaawansowane bloki budulcowe AI, niezbędne do tworzenia praktycznych aplikacji AI/uczenia maszynowego z wykorzystaniem ich własnych danych. Użytkownicy, korzystając z Arctic za pośrednictwem Snowflake Cortex, mogą łatwiej budować aplikacje AI klasy produkcyjnej w odpowiedniej skali, w ramach zabezpieczeń i zarządzania chmury danych.
Rodzina modeli Snowflake Arctic, w skład której wchodzi model językowy Arctic LLM, obejmuje również Arctic Embed, jeden z najnowszych, zaawansowanych modeli osadzania tekstu wprowadzonych niedawno przez Snowflake. Ten produkt jest dostępny w społeczności open source na licencji Apache 2.0. Składa się z 5 modeli, które są dostępne w Hugging Face i wkrótce zostaną wbudowane w Snowflake Cortex w ramach prywatnego podglądu. Ten model osadzania, o około 3 razy mniejszym rozmiarze niż podobne modele, jest zoptymalizowany pod kątem najlepszych wyników wyszukiwania, co zapewnia firmom efektywne i ekonomiczne rozwiązanie do łączenia unikalnych zestawów danych z LLM w ramach usług wyszukiwania semantycznego lub wyszukiwania wzbogaconego o generowanie (RAG).
Snowflake stale poszerza zakres dostępnych modeli dla klientów w swojej chmurze danych, dodając ostatnio modele od Reka i Mistral AI. Firma kontynuuje innowacje w dziedzinie AI, o czym świadczy ogłoszenie rozszerzonej współpracy z NVIDIA. Snowflake Data Cloud w połączeniu z pełną platformą przyspieszoną przez NVIDIA zapewnia bezpieczną i wydajną infrastrukturę oraz możliwości obliczeniowe, które umożliwiają szerokie wykorzystanie AI w różnych branżach. Snowflake Ventures zainwestował również w firmy takie jak Landing AI, Mistral AI i Reka, aby wspierać klientów w generowaniu wartości z LLM i AI na podstawie ich danych biznesowych.
Komentarze0