Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dit is een door AI vertaalde post.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake lanceert 'Arctic', een enterprise-grade LLM met de hoogste openheid in de branche

Selecteer taal

  • Nederlands
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • हिन्दी
  • Magyar

Samengevat door durumis AI

  • Snowflake heeft 'Arctic', een open-source groot taalmodel (LLM) met toonaangevende prestaties en efficiëntie, gelanceerd.
  • Arctic is beschikbaar onder de Apache 2.0-licentie voor gratis commercieel gebruik en kan worden aangepast dankzij ondersteuning voor verschillende frameworks.
  • Met Arctic biedt Snowflake bedrijven de datagrond en geavanceerde AI-bouwstenen die nodig zijn om praktische AI/machine learning-apps te maken met hun eigen data.

Een open-source large language model toegevoegd aan de Snowflake Arctic modelfamilie, die de beste prestaties en efficiëntie in zijn klasse biedt.

Open source onder Apache 2.0-licentie... Biedt flexibiliteit voor aanpassing met ondersteuning voor verschillende frameworks.

Snowflake, een wereldwijd cloudbedrijf voor data, heeft 'Snowflake Arctic', een enterprise-grade large language model (LLM) met ongeëvenaarde openheid en prestaties, gelanceerd.

Arctic, ontworpen met Snowflake's unieke MoE (Mixture-of-Experts)-benadering, levert de beste prestaties en productiviteit in zijn klasse. Het is geoptimaliseerd om te voldoen aan de complexe vereisten van bedrijven en voldoet aan de hoogste standaarden in verschillende criteria, waaronder het genereren van SQL-code en het uitvoeren van opdrachten.

Met name Arctic heeft een Apache 2.0-licentie die gratis commercieel gebruik mogelijk maakt. Snowflake heeft gedetailleerde informatie over de AI-trainingsmethoden gepubliceerd, waardoor een nieuwe open standaard is vastgesteld voor enterprise-grade AI-technologie. De Arctic LLM is onderdeel van de Snowflake Arctic modelfamilie en omvat ook een tekst-embeddingmodel voor zoekdoeleinden.

Sridhar Ramaswamy, CEO van Snowflake, zei: "Het AI-onderzoeksteam van Snowflake heeft een belangrijke mijlpaal bereikt voor ons bedrijf door innovatie op het gebied van AI te bevorderen. Door de beste prestaties en efficiëntie in de branche open source te maken, breidt Snowflake de mogelijkheden van open source AI verder uit. We vergroten ook de AI-capaciteiten van Snowflake om klanten krachtige en betrouwbare AI-modellen te bieden."

◇ Arctic, een open-source LLM die brede samenwerking ondersteunt

Volgens een recent rapport van Forrester, een marktonderzoeksbureau, zei ongeveer 46% van de AI-beslissingsbevoegdheden in grote bedrijven dat ze 'bestaande open-source LLM's gebruiken om generatieve AI te implementeren in hun bedrijven als onderdeel van hun AI-strategie'. Het Snowflake-datacloudplatform wordt momenteel gebruikt door meer dan 9.400 bedrijven en organisaties wereldwijd. Door gebruik te maken van een open LLM met toonaangevende openheid, kunnen deze bedrijven hun data benutten.

Arctic, een open-source model onder Apache 2.0-licentie, biedt ook flexibiliteit bij het selecteren van inferentiemodi en trainingsmethoden, samen met codetemplates. Gebruikers kunnen Arctic gebruiken en aanpassen met behulp van populaire frameworks zoals NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM en Hugging Face. Met Snowflake Cortex kunnen gebruikers Arctic onmiddellijk gebruiken via serverloze inferentie. Snowflake Cortex is een volledig beheerde service die machine learning- en AI-oplossingen biedt in de datacloud met een breed scala aan modellen, waaronder Hugging Face, Lamini, Microsoft Azure, NVIDIA API Catalogus, Perplexity en Together AI. Arctic zal ook beschikbaar worden op Amazon Web Services (AWS).

◇ Uitstekende bronnefficiëntie en topprestaties

Het AI-onderzoeksteam van Snowflake bestaat uit toonaangevende onderzoekers en systeemontwikkelaars. De bouw van Arctic duurde minder dan drie maanden. Voor het trainen van het model werden Amazon Elastic Compute Cloud (Amazon EC2) P5- instanties gebruikt, waarbij de trainingskosten slechts een achtste waren van vergelijkbare modellen. Snowflake stelt een nieuwe norm voor de trainingsnelheid van geavanceerde open enterprise-modellen en ondersteunt uiteindelijk gebruikers bij het creëren van kosteneffectieve, aangepaste modellen op optimale schaal.

Het gedifferentieerde MoE-ontwerp van Arctic verbetert zowel het trainingsysteem als de modelprestaties door zorgvuldig ontworpen data-assemblage op basis van bedrijfsvereisten. Het activeert ook 480 miljard parameters in batches van 17 tegelijk, wat resulteert in uitstekende token-efficiëntie en toonaangevende kwaliteit, wat leidt tot optimale resultaten. Om een significante efficiëntieverbetering te realiseren, activeert Arctic ongeveer 50% minder parameters dan DBRX tijdens inferentie of training, en ongeveer 75% minder dan Llama 3 70B. Het overtreft ook de prestaties van belangrijke bestaande open-source modellen zoals DBRX en Mixtral-8x7B in codering (HumanEval+, MBPP+) en SQL-generatie (Spider), terwijl het gelijktijdig toonaangevende prestaties laat zien in algemene taalbegrip (MMLU, Large Language Understanding).

◇ AI-innovatie voor iedereen, geleid door Snowflake

Snowflake biedt bedrijven de datagrond en geavanceerde AI-bouwstenen die nodig zijn om praktische AI/machine learning-apps te bouwen met behulp van hun eigen data. Wanneer klanten Arctic gebruiken via Snowflake Cortex, wordt het eenvoudiger om productie-ready AI-apps op de juiste schaal te bouwen binnen de beveiligings- en governance-grenzen van de datacloud.

De Snowflake Arctic-modelfamilie, die de Arctic LLM omvat, omvat ook Arctic Embed, een van Snowflake's recent gelanceerde geavanceerde tekst-embeddingmodellen. Dit product is open source onder Apache 2.0-licentie en kan gratis worden gebruikt door de open source-gemeenschap. De familie, bestaande uit vijf modellen, is direct beschikbaar op Hugging Face en zal geïntegreerd worden in Snowflake Cortex in een privé preview-vorm. Dit embeddingmodel, dat ongeveer een derde van de omvang heeft van vergelijkbare modellen, is geoptimaliseerd voor optimale zoekprestaties, wat bedrijven een effectieve en economische oplossing biedt wanneer ze hun eigen datasets combineren met LLM's als onderdeel van zoekverbeterde generatie (RAG) of semantische zoekservices.

Onlangs heeft Snowflake ook modellen van Reka en Mistral AI toegevoegd, waardoor klanten toegang hebben tot de nieuwste LLM's met de hoogste prestaties in de datacloud. Het bedrijf heeft onlangs ook een uitgebreid partnerschap met NVIDIA aangekondigd om AI-innovatie te blijven bevorderen. De datacloud van Snowflake, in combinatie met een full-stack NVIDIA-versnelde platform, biedt een veilige en krachtige infrastructuur en rekenkracht om de productiviteit van AI in alle sectoren te benutten. Snowflake Ventures heeft onlangs ook geïnvesteerd in Landing AI, Mistral AI en Reka om klanten te helpen waarde te creëren uit hun bedrijfsdata met behulp van LLM's en AI.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake publiceert rapport over data trends 2024... AI-ontwikkelaars ontwikkelen gemiddeld 90 apps per dag Volgens een onderzoek van Snowflake onder meer dan 9.000 klanten is het aantal chatbot-apps onder LLM-apps toegenomen. Ontwikkelaars geven de voorkeur aan Python en de hoeveelheid verwerking van ongestructureerde gegevens is toegenomen. Lees meer in het S

16 mei 2024

SK C&C lanceert 'Soluer LLMOps', een platform dat ondersteuning biedt voor het implementeren van sLLM's op maat SK C&C heeft het platform 'Soluer LLMOps' gelanceerd, dat is ontworpen om bedrijven te helpen bij het bouwen van sLLM's (Small Language Models) op maat. Met dit platform kunnen gebruikers sLLM's gemakkelijk maken met behulp van diverse foundation models z

20 mei 2024

RSN neemt deel aan AI Expo Korea en lanceert 'Global MI', een platform voor het analyseren van markttrends op basis van generatieve AI RSN zal op 'AI Expo Korea 2024' zijn platform voor het analyseren van markttrends, 'Global MI', lanceren. Met behulp van RAG-technologie worden de kosten voor gegevensverwerking verlaagd en de betrouwbaarheid verbeterd. Het platform levert nauwkeurige res

25 april 2024

AI Full Stack voltooien met open source In de AI-ecosysteem duiken steeds meer open source LLM (Large Language Model)-modellen op. Mistral, Llama, phi-2, en andere krachtige modellen met een open licentie zijn uitgebracht, en er worden verschillende tools ontwikkeld om deze te gebruiken. LangCh
RevFactory
RevFactory
RevFactory
RevFactory

5 februari 2024

OpenELM van Apple / Phi-3 van MS / Llama 3 van Meta openbaar Apple, Microsoft en Meta, enkele van de grootste techbedrijven, hebben onlangs hun eigen grote taalmodellen openbaar gemaakt en zorgen voor een frisse wind in de AI-industrie. De modellen die nu zijn uitgebracht, zijn geëvolueerd in verschillende richting
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 april 2024

De paradox van toonaangevende AI-modellen: transparantie Het gebrek aan transparantie in geavanceerde AI-systemen is een groeiend probleem geworden. Onderzoekers van Stanford University hebben 10 AI-systemen geanalyseerd, waaronder GPT-4, en zijn tot de conclusie gekomen dat geen enkel model informatie over de
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 mei 2024

Wat is een LLM (Large Language Model)? Een groot taalmodel (LLM) is een kerntechnologie van kunstmatige intelligentie die enorme hoeveelheden tekstgegevens leert om menselijke taalverwerkingsvaardigheden te ontwikkelen. Het kan worden gebruikt in een verscheidenheid van gebieden, waaronder cha
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 april 2024

Mr. Know-All – 2023.7 De eerste editie van het AI-maandblad "Mr. Know-All" van juli 2023 presenteert de nieuwste AI-technologieën en trends, zoals Claude 2, Azure OpenAI, LangChain en LlamaIndex. In het bijzonder wordt een gedetailleerde beschrijving gegeven van LlamaIndex, da
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 maart 2024

Mr. Know-All 6 - maart 2024 We stellen LM Studio voor, een platform waarmee je open-source LLM's zoals LLaMa, Falcon, MPT en StarCoder lokaal kunt uitvoeren, en diverse AI-tools en -services, waaronder Devin, een AI-software-engineer, en crewAI, een platform voor automatisering met
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 maart 2024