Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

To jest post przetłumaczony przez AI.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake uruchamia „Arctic”, firmowy model językowy klasy korporacyjnej o najwyższym poziomie otwartości

  • Język pisania: Koreański
  • Kraj referencyjny: Wszystkie kraje country-flag

Wybierz język

  • Polski
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Nederlands
  • हिन्दी
  • Magyar

Tekst podsumowany przez sztuczną inteligencję durumis

  • Snowflake wprowadził na rynek „Arctic”, otwartoźródłowy model językowy o dużej skali (LLM) o najlepszej w swojej klasie wydajności i efektywności.
  • „Arctic” jest dostępny na licencji Apache 2.0 i pozwala na bezpłatne wykorzystywanie komercyjne. Obsługuje różne frameworki, umożliwiając dostosowanie do własnych potrzeb.
  • Dzięki „Arctic” Snowflake zapewnia firmom podstawę danych i najnowocześniejsze bloki budulcowe AI, których potrzebują do tworzenia praktycznych aplikacji AI i uczenia maszynowego, wykorzystując ich własne dane.

Dodanie otwartego, dużego modelu językowego do rodziny modeli Snowflake Arctic, charakteryzującego się najlepszą w swojej klasie wydajnością i skutecznością

Oprogramowanie open source na licencji Apache 2.0… Elastyczność dzięki obsłudze różnych frameworków i możliwości dostosowania

Snowflake, globalna firma zajmująca się chmurami danych, wprowadziła na rynek „Snowflake Arctic”, model języka dużego (LLM) klasy enterprise, charakteryzujący się najlepszą w swojej klasie otwartością i wydajnością.

Zaprojektowany przy użyciu unikalnej metody mieszania ekspertów (MoE) firmy Snowflake, Arctic zapewnia najlepszą w swojej klasie wydajność i produktywność. Jest zoptymalizowany do obsługi złożonych wymagań biznesowych, spełniając najwyższe standardy w różnych kryteriach, takich jak generowanie kodu SQL i wykonywanie poleceń.

Arctic jest dostępny na licencji Apache 2.0, która pozwala na bezpłatne, komercyjne wykorzystanie. Snowflake ujawnił szczegółowe informacje o sposobach uczenia się AI, ustanawiając nowy otwarty standard dla technologii AI klasy enterprise. Arctic LLM jest częścią rodziny modeli Snowflake Arctic i obejmuje również model tekstowy wbudowany do wyszukiwania.

Sridhar Ramaswamy, dyrektor generalny Snowflake, powiedział: „Zespół badawczy AI w Snowflake jest na czele innowacji w branży AI, co stanowi przełom dla naszej firmy”. „Snowflake udostępnia społeczności AI najlepszą w swojej klasie wydajność i skuteczność w otwartym oprogramowaniu open source, poszerzając granice możliwości otwartego oprogramowania AI. Ulepszamy również nasze możliwości AI, aby dostarczać klientom kompetentne i niezawodne modele AI”.

◇ Arctic, otwarty LLM wspierający szeroką współpracę

Według ostatniego raportu firmy analitycznej Forrester, około 46% decydentów ds. AI w firmach na całym świecie twierdzi, że „w ramach strategii AI wykorzystują istniejące otwarte LLM do wdrożenia generatywnej sztucznej inteligencji w swoich firmach”. Platforma Snowflake Data Cloud jest obecnie wykorzystywana przez ponad 9400 firm i organizacji na całym świecie. Dzięki LLM o najwyższym poziomie otwartości mogą teraz wykorzystywać swoje dane.

Arctic, otwarty model na licencji Apache 2.0, zapewnia elastyczność w wyborze metod wnioskowania i uczenia się wraz z szablonami kodu. Użytkownicy mogą korzystać z Arctic i dostosowywać go za pomocą popularnych frameworków, takich jak NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM i Hugging Face. Arctic można natychmiast uruchomić w Snowflake Cortex za pomocą wnioskowania bezserwerowego. Snowflake Cortex to w pełni zarządzana usługa, która oferuje rozwiązania AI i uczenia maszynowego w chmurze danych, z listą modeli obejmującą Hugging Face, Lamini, Microsoft Azure, katalog API NVIDIA, Perplexity, Together AI. Arctic będzie również dostępny w Amazon Web Services (AWS).

◇ Doskonała wydajność wykorzystania zasobów i najwyższy poziom wydajności

Zespół badawczy AI w Snowflake składa się z najlepszych naukowców i inżynierów systemowych. Arctic został zbudowany w mniej niż 3 miesiące. Do trenowania modelu użyto instancji Amazon Elastic Compute Cloud (Amazon EC2) P5, a koszty trenowania były o 8 razy niższe niż w przypadku podobnych modeli. Snowflake ustala nowy standard w zakresie szybkości trenowania najnowocześniejszych, otwartych modeli klasy enterprise, aby ostatecznie umożliwić użytkownikom tworzenie opłacalnych i spersonalizowanych modeli w optymalnej skali.

Unikalna konstrukcja MoE Arctic poprawia zarówno system uczenia się, jak i wydajność modelu poprzez szczegółowe projektowanie montażu danych w zależności od wymagań biznesowych. Ponadto aktywacja 4800 miliardów parametrów w 17 partiach jednocześnie zapewnia doskonałą wydajność tokenów i najlepszą w swojej klasie jakość, oferując najlepsze możliwe wyniki. Arctic wykorzystuje o około 50% mniej parametrów niż DBRX podczas wnioskowania lub uczenia się, a o około 75% mniej niż Llama 3 70B, aby znacznie zwiększyć wydajność. Model przewyższa wydajność innych znanych modeli open source, takich jak DBRX, Mixtral-8x7B, w dziedzinie kodowania (HumanEval+, MBPP+) i generowania SQL (Spider), a jednocześnie osiąga najwyższy poziom wydajności w zakresie rozumienia języka naturalnego (MMLU, rozległe wielozadaniowe rozumienie języka).

◇ Rewolucja AI dla wszystkich, prowadzona przez Snowflake

Snowflake dostarcza fundamenty danych i najnowocześniejsze bloki konstrukcyjne AI, które umożliwiają firmom tworzenie praktycznych aplikacji AI/uczenia maszynowego przy użyciu własnych danych. Gdy klienci korzystają z Arctic za pośrednictwem Snowflake Cortex, łatwiej jest tworzyć aplikacje AI klasy produkcyjnej w odpowiedniej skali w ramach bezpieczeństwa i zarządzania chmury danych.

Rodzina modeli Snowflake Arctic, która obejmuje Arctic LLM, zawiera również Arctic Embed, jeden z najnowszych najnowocześniejszych modeli wbudowanych w tekst, wprowadzonych niedawno przez Snowflake. Produkt jest dostępny na licencji Apache 2.0, a społeczność open source może go bezpłatnie wykorzystać. Składająca się z 5 modeli rodzina jest dostępna w Hugging Face i zostanie wkrótce udostępniona w Snowflake Cortex w ramach prywatnej wersji zapoznawczej. Ten model wbudowany, który jest około 3 razy mniejszy od podobnych modeli, został zoptymalizowany pod kątem najlepszej wydajności wyszukiwania, zapewniając firmom ekonomiczne i skuteczne rozwiązanie do łączenia unikalnych zestawów danych z LLM w ramach usług wyszukiwania wzbogaconych o generowanie (RAG) lub wyszukiwania semantycznego.

Ostatnio Snowflake dodał również modele Reka i Mistral AI, aby pomóc klientom uzyskać dostęp do najnowszych LLM o najwyższej wydajności w chmurze danych. Firma kontynuuje również innowacje w zakresie AI, ogłaszając ostatnio rozszerzone partnerstwo z NVIDIA. Chmura danych Snowflake w połączeniu z platformą sprzętową NVIDIA o pełnym zasięgu zapewnia bezpieczną i wydajną infrastrukturę oraz możliwości obliczeniowe, aby wykorzystać produktywność AI w różnych branżach. Snowflake Ventures zainwestował również w Landing AI, Mistral AI i Reka, aby pomóc klientom w generowaniu wartości z LLM i AI w oparciu o dane firm.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Raport Snowflake Data Trends 2024: deweloperzy AI tworzą średnio 90 aplikacji dziennie Na podstawie ankiety przeprowadzonej wśród ponad 9000 klientów Snowflake, w raporcie Snowflake Data Trends 2024, wynika, że ​​popularność chatbotów wśród aplikacji LLM wzrosła, deweloperzy preferują język Python, a obróbka danych nieustrukturyzowanych ró

16 maja 2024

SK C&C prezentuje platformę „Solure LLMOps” do tworzenia spersonalizowanych sLLM dla klientów SK C&C wprowadziło na rynek platformę „Solure LLMOps” do tworzenia spersonalizowanych małych modeli językowych (sLLM) dla firm. Platforma ta wykorzystuje różne modele podstawowe, takie jak ChatGPT i HyperCLOVA X, aby ułatwić tworzenie sLLM metodą przeciąg

20 maja 2024

Raport NetApp dotyczący złożoności chmury w 2024 r.: Perspektywa przyszłości sztucznej inteligencji na skalę globalną - rewolucja czy zagłada? Raport NetApp dotyczący złożoności chmury analizuje różnicę między liderami AI a gorzej radzącymi sobie firmami, podkreślając, że zintegrowana infrastruktura danych jest kluczowa dla sukcesu AI. Raport podkreśla znaczenie integracji danych na podstawie pr

25 kwietnia 2024

AI Full Stack tworzony z wykorzystaniem open source W ekosystemie AI pojawiają się coraz częściej nowe modele LLM (Large Language Models) z otwartym kodem źródłowym. Mistral, Llama, phi-2 to przykłady modeli o dużej mocy i otwartych licencjach, które zostały udostępnione publicznie. Równolegle rozwijane są
RevFactory
RevFactory
RevFactory
RevFactory

5 lutego 2024

Publiczne wersje modeli językowych OpenELM firmy Apple, Phi-3 firmy Microsoft i Llama 3 firmy Meta Najważniejsze firmy technologiczne, takie jak Apple, Microsoft i Meta, niedawno udostępniły własne, rozbudowane modele językowe, wsprowadzając świeży powiew do branży sztucznej inteligencji. Modele te, wprowadzone w ostatnim czasie, ewoluują w różnych kie
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 kwietnia 2024

Pan Wie-Wszystko – 2023.7 W lipcowym numerze miesięcznika AI „Pan Wie-Wszystko” z 2023 r. przedstawiamy najnowsze technologie i trendy w dziedzinie sztucznej inteligencji, takie jak Claude 2, Azure OpenAI, LangChain i LlamaIndex. Szczególnie skupiamy się na szczegółowym wyjaśnieni
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marca 2024

Co to jest LLM (Large Language Model)? Duże modele językowe (LLM) to kluczowa technologia sztucznej inteligencji, która uczy się ogromnych ilości danych tekstowych, aby zdobyć zdolności przetwarzania języka podobne do ludzkich. Mogą być wykorzystywane w różnych dziedzinach, takich jak chatboty
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 kwietnia 2024

Paradoks przełomowych modeli AI, przejrzystość Brak przejrzystości w najnowocześniejszych systemach AI stał się poważnym problemem. Naukowcy ze Stanford University przeanalizowali 10 systemów AI, w tym GPT-4, dochodząc do wniosku, że żaden z nich nie ujawnia w sposób przejrzysty informacji, takich jak
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 maja 2024

Pan Know-All nr 6 - marzec 2024 Prezentujemy LM Studio, platformę do uruchamiania lokalnie modeli językowych z otwartym kodem źródłowym, takich jak LLaMa, Falcon, MPT, StarCoder. Ponadto omówimy różne narzędzia i usługi AI, w tym Devina, inżyniera oprogramowania AI, oraz platformę autom
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 marca 2024