![translation](https://cdn.durumis.com/common/trans.png)
To jest post przetłumaczony przez AI.
Snowflake uruchamia „Arctic”, firmowy model językowy klasy korporacyjnej o najwyższym poziomie otwartości
- Język pisania: Koreański
- •
-
Kraj referencyjny: Wszystkie kraje
- •
- TO
Wybierz język
Tekst podsumowany przez sztuczną inteligencję durumis
- Snowflake wprowadził na rynek „Arctic”, otwartoźródłowy model językowy o dużej skali (LLM) o najlepszej w swojej klasie wydajności i efektywności.
- „Arctic” jest dostępny na licencji Apache 2.0 i pozwala na bezpłatne wykorzystywanie komercyjne. Obsługuje różne frameworki, umożliwiając dostosowanie do własnych potrzeb.
- Dzięki „Arctic” Snowflake zapewnia firmom podstawę danych i najnowocześniejsze bloki budulcowe AI, których potrzebują do tworzenia praktycznych aplikacji AI i uczenia maszynowego, wykorzystując ich własne dane.
Dodanie otwartego, dużego modelu językowego do rodziny modeli Snowflake Arctic, charakteryzującego się najlepszą w swojej klasie wydajnością i skutecznością
Oprogramowanie open source na licencji Apache 2.0… Elastyczność dzięki obsłudze różnych frameworków i możliwości dostosowania
Snowflake, globalna firma zajmująca się chmurami danych, wprowadziła na rynek „Snowflake Arctic”, model języka dużego (LLM) klasy enterprise, charakteryzujący się najlepszą w swojej klasie otwartością i wydajnością.
Zaprojektowany przy użyciu unikalnej metody mieszania ekspertów (MoE) firmy Snowflake, Arctic zapewnia najlepszą w swojej klasie wydajność i produktywność. Jest zoptymalizowany do obsługi złożonych wymagań biznesowych, spełniając najwyższe standardy w różnych kryteriach, takich jak generowanie kodu SQL i wykonywanie poleceń.
Arctic jest dostępny na licencji Apache 2.0, która pozwala na bezpłatne, komercyjne wykorzystanie. Snowflake ujawnił szczegółowe informacje o sposobach uczenia się AI, ustanawiając nowy otwarty standard dla technologii AI klasy enterprise. Arctic LLM jest częścią rodziny modeli Snowflake Arctic i obejmuje również model tekstowy wbudowany do wyszukiwania.
Sridhar Ramaswamy, dyrektor generalny Snowflake, powiedział: „Zespół badawczy AI w Snowflake jest na czele innowacji w branży AI, co stanowi przełom dla naszej firmy”. „Snowflake udostępnia społeczności AI najlepszą w swojej klasie wydajność i skuteczność w otwartym oprogramowaniu open source, poszerzając granice możliwości otwartego oprogramowania AI. Ulepszamy również nasze możliwości AI, aby dostarczać klientom kompetentne i niezawodne modele AI”.
◇ Arctic, otwarty LLM wspierający szeroką współpracę
Według ostatniego raportu firmy analitycznej Forrester, około 46% decydentów ds. AI w firmach na całym świecie twierdzi, że „w ramach strategii AI wykorzystują istniejące otwarte LLM do wdrożenia generatywnej sztucznej inteligencji w swoich firmach”. Platforma Snowflake Data Cloud jest obecnie wykorzystywana przez ponad 9400 firm i organizacji na całym świecie. Dzięki LLM o najwyższym poziomie otwartości mogą teraz wykorzystywać swoje dane.
Arctic, otwarty model na licencji Apache 2.0, zapewnia elastyczność w wyborze metod wnioskowania i uczenia się wraz z szablonami kodu. Użytkownicy mogą korzystać z Arctic i dostosowywać go za pomocą popularnych frameworków, takich jak NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM i Hugging Face. Arctic można natychmiast uruchomić w Snowflake Cortex za pomocą wnioskowania bezserwerowego. Snowflake Cortex to w pełni zarządzana usługa, która oferuje rozwiązania AI i uczenia maszynowego w chmurze danych, z listą modeli obejmującą Hugging Face, Lamini, Microsoft Azure, katalog API NVIDIA, Perplexity, Together AI. Arctic będzie również dostępny w Amazon Web Services (AWS).
◇ Doskonała wydajność wykorzystania zasobów i najwyższy poziom wydajności
Zespół badawczy AI w Snowflake składa się z najlepszych naukowców i inżynierów systemowych. Arctic został zbudowany w mniej niż 3 miesiące. Do trenowania modelu użyto instancji Amazon Elastic Compute Cloud (Amazon EC2) P5, a koszty trenowania były o 8 razy niższe niż w przypadku podobnych modeli. Snowflake ustala nowy standard w zakresie szybkości trenowania najnowocześniejszych, otwartych modeli klasy enterprise, aby ostatecznie umożliwić użytkownikom tworzenie opłacalnych i spersonalizowanych modeli w optymalnej skali.
Unikalna konstrukcja MoE Arctic poprawia zarówno system uczenia się, jak i wydajność modelu poprzez szczegółowe projektowanie montażu danych w zależności od wymagań biznesowych. Ponadto aktywacja 4800 miliardów parametrów w 17 partiach jednocześnie zapewnia doskonałą wydajność tokenów i najlepszą w swojej klasie jakość, oferując najlepsze możliwe wyniki. Arctic wykorzystuje o około 50% mniej parametrów niż DBRX podczas wnioskowania lub uczenia się, a o około 75% mniej niż Llama 3 70B, aby znacznie zwiększyć wydajność. Model przewyższa wydajność innych znanych modeli open source, takich jak DBRX, Mixtral-8x7B, w dziedzinie kodowania (HumanEval+, MBPP+) i generowania SQL (Spider), a jednocześnie osiąga najwyższy poziom wydajności w zakresie rozumienia języka naturalnego (MMLU, rozległe wielozadaniowe rozumienie języka).
◇ Rewolucja AI dla wszystkich, prowadzona przez Snowflake
Snowflake dostarcza fundamenty danych i najnowocześniejsze bloki konstrukcyjne AI, które umożliwiają firmom tworzenie praktycznych aplikacji AI/uczenia maszynowego przy użyciu własnych danych. Gdy klienci korzystają z Arctic za pośrednictwem Snowflake Cortex, łatwiej jest tworzyć aplikacje AI klasy produkcyjnej w odpowiedniej skali w ramach bezpieczeństwa i zarządzania chmury danych.
Rodzina modeli Snowflake Arctic, która obejmuje Arctic LLM, zawiera również Arctic Embed, jeden z najnowszych najnowocześniejszych modeli wbudowanych w tekst, wprowadzonych niedawno przez Snowflake. Produkt jest dostępny na licencji Apache 2.0, a społeczność open source może go bezpłatnie wykorzystać. Składająca się z 5 modeli rodzina jest dostępna w Hugging Face i zostanie wkrótce udostępniona w Snowflake Cortex w ramach prywatnej wersji zapoznawczej. Ten model wbudowany, który jest około 3 razy mniejszy od podobnych modeli, został zoptymalizowany pod kątem najlepszej wydajności wyszukiwania, zapewniając firmom ekonomiczne i skuteczne rozwiązanie do łączenia unikalnych zestawów danych z LLM w ramach usług wyszukiwania wzbogaconych o generowanie (RAG) lub wyszukiwania semantycznego.
Ostatnio Snowflake dodał również modele Reka i Mistral AI, aby pomóc klientom uzyskać dostęp do najnowszych LLM o najwyższej wydajności w chmurze danych. Firma kontynuuje również innowacje w zakresie AI, ogłaszając ostatnio rozszerzone partnerstwo z NVIDIA. Chmura danych Snowflake w połączeniu z platformą sprzętową NVIDIA o pełnym zasięgu zapewnia bezpieczną i wydajną infrastrukturę oraz możliwości obliczeniowe, aby wykorzystać produktywność AI w różnych branżach. Snowflake Ventures zainwestował również w Landing AI, Mistral AI i Reka, aby pomóc klientom w generowaniu wartości z LLM i AI w oparciu o dane firm.