스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake wprowadza Arctic – firmowy model językowy LLM o najwyższym poziomie otwartości

  • Język oryginalny: Koreański
  • Kraj: Wszystkie krajecountry-flag
  • TO

Utworzono: 2024-04-25

Utworzono: 2024-04-25 11:41

Dodanie do rodziny modeli Snowflake Arctic otwartego, dużego modelu językowego o najlepszych w swojej klasie wydajności i efektywności

Open source na licencji Apache 2.0… Zapewnia elastyczność dzięki obsłudze różnych frameworków, co umożliwia dostosowywanie

Snowflake (Snowflake), globalna firma zajmująca się chmurą danych, ogłosiła wprowadzenie na rynek „Snowflake Arctic”, korporacyjnego, dużego modelu językowego (Large Language Model, LLM) o najwyższym poziomie otwartości i wydajności w branży.

Zaprojektowany z wykorzystaniem unikalnego podejścia Snowflake opartego na mieszance ekspertów (MoE – Mixture-of-Experts), Arctic zapewnia najlepszą w swojej klasie wydajność i produktywność. Jest również zoptymalizowany pod kątem obsługi złożonych wymagań biznesowych, spełniając najwyższe standardy w różnych obszarach, takich jak generowanie kodu SQL, wykonywanie poleceń itp.

Warto podkreślić, że Arctic jest dostępny na licencji Apache 2.0, co oznacza, że jest bezpłatny i może być wykorzystywany w celach komercyjnych. Snowflake ujawnił szczegółowe informacje na temat metod uczenia AI, ustanawiając nowy otwarty standard dla technologii AI klasy korporacyjnej. Ponadto model językowy Arctic jest częścią rodziny modeli Snowflake Arctic (Snowflake Arctic model family) i obejmuje również model osadzania tekstu do celów wyszukiwania.

„Zespół badawczy AI w Snowflake dokonuje przełomowych innowacji w dziedzinie sztucznej inteligencji, co stanowi znaczący punkt zwrotny dla naszej firmy” – powiedział Sridhar Ramaswamy, CEO Snowflake. „Udostępniając społeczności AI najlepszą w branży wydajność i efektywność w ramach projektu open source, Snowflake poszerza granice możliwości AI opartego na open source. Wzmacniamy również możliwości AI Snowflake, oferując klientom wydajne i niezawodne modele AI”.

◇ Arctic, otwarty model językowy LLM wspierający szeroką współpracę

Zgodnie z najnowszym raportem Forrestera, około 46% decydentów ds. AI w globalnych firmach deklaruje, że „w ramach swojej strategii AI wykorzystują istniejące otwarte modele językowe LLM do wdrażania generatywnej sztucznej inteligencji w swoich organizacjach”. Platforma Snowflake Data Cloud jest obecnie wykorzystywana przez ponad 9400 firm i instytucji na całym świecie. Dzięki LLM oferującemu najwyższy poziom otwartości w branży, mogą one w pełni wykorzystać potencjał swoich danych.

Arctic, jako otwarty model na licencji Apache 2.0, oferuje elastyczność w zakresie wyboru metody wnioskowania i uczenia wraz z szablonami kodu. Użytkownicy mogą korzystać z Arctic i dostosowywać go za pomocą preferowanych frameworków, takich jak NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM, Hugging Face. Możliwe jest również natychmiastowe użycie Arctic za pośrednictwem wnioskowania bezserwerowego w Snowflake Cortex. Snowflake Cortex to w pełni zarządzana usługa, która zapewnia rozwiązania AI i uczenia maszynowego w chmurze danych, wraz z szeroką gamą modeli, w tym Hugging Face, Lamini, Microsoft Azure, katalogiem API NVIDIA, Perplexity, Together AI. Użytkowanie Arctic będzie również dostępne w Amazon Web Services (AWS).

◇ Doskonała efektywność wykorzystania zasobów i najwyższy poziom wydajności

Zespół badawczy AI Snowflake składa się z najlepszych naukowców i inżynierów systemowych w branży. Budowa Arctic zajęła mniej niż 3 miesiące. Do trenowania modelu wykorzystano instancje Amazon Elastic Compute Cloud (Amazon EC2) P5, a koszty szkolenia były o 8 razy niższe w porównaniu do podobnych modeli. Snowflake ustanawia nowy standard w zakresie szybkości uczenia się zaawansowanych, otwartych modeli klasy korporacyjnej, ostatecznie umożliwiając użytkownikom tworzenie modeli dostosowanych do ich potrzeb i optymalnych pod względem kosztów w odpowiedniej skali.

Unikalna konstrukcja Arctic oparta na MoE pozwala na udoskonalenie zarówno systemu uczenia, jak i wydajności modelu dzięki precyzyjnemu projektowaniu zestawów danych w zależności od potrzeb biznesowych. Ponadto, aktywacja 480 miliardów parametrów w pakietach po 17 jednocześnie zapewnia wyjątkową efektywność tokenów i najlepszą w branży jakość, co przekłada się na najlepsze wyniki. W celu zwiększenia efektywności, Arctic aktywuje mniej parametrów podczas wnioskowania i uczenia się — o około 50% mniej niż DBRX i o około 75% mniej niż Llama 3 70B. W zakresie kodowania (HumanEval+, MBPP+) i generowania SQL (Spider) Arctic przewyższa wydajnością popularne istniejące modele open source, takie jak DBRX i Mixtral-8x7B, a jednocześnie osiąga najwyższe wyniki w zakresie ogólnego rozumienia języka (MMLU, Large-scale Multitask Language Understanding).

◇ Innowacje w dziedzinie AI dla wszystkich, pod przewodnictwem Snowflake

Snowflake dostarcza firmom podstawę danych i zaawansowane bloki budulcowe AI, niezbędne do tworzenia praktycznych aplikacji AI/uczenia maszynowego z wykorzystaniem ich własnych danych. Użytkownicy, korzystając z Arctic za pośrednictwem Snowflake Cortex, mogą łatwiej budować aplikacje AI klasy produkcyjnej w odpowiedniej skali, w ramach zabezpieczeń i zarządzania chmury danych.

Rodzina modeli Snowflake Arctic, w skład której wchodzi model językowy Arctic LLM, obejmuje również Arctic Embed, jeden z najnowszych, zaawansowanych modeli osadzania tekstu wprowadzonych niedawno przez Snowflake. Ten produkt jest dostępny w społeczności open source na licencji Apache 2.0. Składa się z 5 modeli, które są dostępne w Hugging Face i wkrótce zostaną wbudowane w Snowflake Cortex w ramach prywatnego podglądu. Ten model osadzania, o około 3 razy mniejszym rozmiarze niż podobne modele, jest zoptymalizowany pod kątem najlepszych wyników wyszukiwania, co zapewnia firmom efektywne i ekonomiczne rozwiązanie do łączenia unikalnych zestawów danych z LLM w ramach usług wyszukiwania semantycznego lub wyszukiwania wzbogaconego o generowanie (RAG).

Snowflake stale poszerza zakres dostępnych modeli dla klientów w swojej chmurze danych, dodając ostatnio modele od Reka i Mistral AI. Firma kontynuuje innowacje w dziedzinie AI, o czym świadczy ogłoszenie rozszerzonej współpracy z NVIDIA. Snowflake Data Cloud w połączeniu z pełną platformą przyspieszoną przez NVIDIA zapewnia bezpieczną i wydajną infrastrukturę oraz możliwości obliczeniowe, które umożliwiają szerokie wykorzystanie AI w różnych branżach. Snowflake Ventures zainwestował również w firmy takie jak Landing AI, Mistral AI i Reka, aby wspierać klientów w generowaniu wartości z LLM i AI na podstawie ich danych biznesowych.



Komentarze0