Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ez egy AI által fordított bejegyzés.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

A Snowflake bemutatta az Arctic-ot, az iparág legjobb nyitottságú, vállalati szintű LLM-jét

  • Írás nyelve: Koreai
  • Referencia ország: Minden ország country-flag

Válasszon nyelvet

  • Magyar
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी

A durumis AI által összefoglalt szöveg

  • A Snowflake bemutatta az Arctic-ot, egy nyílt forráskódú, nagyméretű nyelvi modellt (LLM), amely a legjobb teljesítményt és hatékonyságot nyújtja.
  • Az Arctic az Apache 2.0 licenc alatt ingyenesen kereskedelmi célra is felhasználható, és számos keretrendszer támogatása révén testreszabható.
  • A Snowflake az Arctic segítségével lehetővé teszi a vállalatok számára, hogy saját adataik felhasználásával készítsenek gyakorlati AI/ gépi tanulási alkalmazásokat, amelyekhez a szükséges adatbázis és a legmodernebb AI-építőblokkok is rendelkezésre állnak.

A Snowflake Arctic modellcsaládhoz hozzáadtak egy a kategóriájában vezető teljesítményt és hatékonyságot nyújtó, nyílt forráskódú, nagyméretű nyelvi modellt.

Az Apache 2.0 licenc alatt kiadott nyílt forráskódú modell... A különböző keretrendszerek támogatása révén rugalmas testreszabási lehetőségeket biztosít.

A Snowflake, a globális adatfelhő-szolgáltató bejelentette a Snowflake Arctic, egy vállalati szintű, nagyméretű nyelvi modellt (LLM), amely a kategóriájában vezető nyitottságot és teljesítményt kínálja.

Az Arctic, amelyet a Snowflake egyedi szakértő-keverési (MoE - Mixture-of-Experts) megközelítése alapján terveztek, a kategóriájában vezető teljesítményt és termelékenységet biztosít. Az Arctic a vállalati szintű, összetett követelmények kielégítésére is optimalizálva van, és a legjobb eredményeket éri el különféle mércék szerint, beleértve az SQL-kód generálását és a parancsok végrehajtását is.

Az Arctic különösen figyelemre méltó az Apache 2.0 licenc alatt történő ingyenes, kereskedelmi felhasználás lehetőségének köszönhetően. A Snowflake nyilvánosságra hozta az AI-tanulási módszerek részleteit, ezzel új, nyílt szabványt állítva fel a vállalati szintű AI-technológiák terén. Az Arctic LLM a Snowflake Arctic modellcsalád része, amely magában foglalja a szövegbeágyazási modelleket is a keresési alkalmazásokhoz.

Sridhar Ramaswamy, a Snowflake vezérigazgatója elmondta: „A Snowflake AI-kutatócsoportja forradalmi változásokat hozott az AI területén, és jelentős fordulóponthoz vezette a céget." „A Snowflake azáltal, hogy a kategóriájában vezető teljesítményt és hatékonyságot nyújtó AI-t tesz nyílt forráskódúvá az AI-közösség számára, kibővíti a nyílt forráskódú AI lehetőségeit. A Snowflake AI-képességei is javulnak, lehetővé téve, hogy hatékony és megbízható AI-modelleket biztosítsunk ügyfeleink számára."

◇ Az Arctic, egy nyílt forráskódú LLM, amely széles körű együttműködést támogat

A Forrester piaci kutatóintézet legutóbbi jelentése szerint a globális vállalatok AI-döntéshozóinak körülbelül 46%-a azt állította, hogy „generatív AI-t fognak bevezetni vállalatukba, a meglévő nyílt forráskódú LLM-ek felhasználásával, az AI-stratégia részeként". A Snowflake adatfelhő-platformját jelenleg több mint 9400 vállalat és szervezet használja világszerte. Az LLM-ek, amelyek iparági szinten a legjobb nyitottságot biztosítják, lehetővé teszik az adatok hatékony felhasználását.

Az Arctic, az Apache 2.0 licenc alatt kiadott nyílt forráskódú modell, rugalmasságot biztosít a kód sablonok és az következtetési/tanulási módszerek kiválasztásában. A felhasználók a választott keretrendszereken keresztül, például az NVIDIA NIM, az NVIDIA TensorRT-LLM, a vLLM és a Hugging Face, használhatják és testreszabhatják az Arctic modellt. Az Arctic azonnali használatra kész a Snowflake Cortex-ben, a kiszolgáló nélküli következtetésen keresztül. A Snowflake Cortex teljesen felügyelt szolgáltatás, amely gépi tanulási és AI-megoldásokat biztosít az adatfelhőben, számos modellkatalógussal együtt, beleértve a Hugging Face, a Lamini, a Microsoft Azure, az NVIDIA API-katalógus, a Perplexity és a Together AI modelleket. Az Arctic várhatóan elérhetővé válik az Amazon Web Services (AWS) szolgáltatásán keresztül is.

◇ Kiváló erőforrás-hatékonyság és a kategóriájában vezető teljesítmény

A Snowflake AI-kutatócsoportját a legjobb kutatók és rendszermérnökök alkotják. Az Arctic kidolgozásához kevesebb, mint 3 hónap időre volt szükség. A modell betanításához az Amazon Elastic Compute Cloud (Amazon EC2) P5 példányait használták, a tanulási költségek pedig a hasonló modellekhez képest 8-szor alacsonyabbak voltak. A Snowflake új mércét állít fel a korszerű, nyílt forráskódú, vállalati szintű modellek tanulási sebességének terén, végső soron lehetővé téve a felhasználók számára, hogy költséghatékony és testreszabott modelleket hozzanak létre az optimális méretezés érdekében.

Az Arctic megkülönböztető MoE kialakítása javítja a tanulási rendszer és a modell teljesítményét, az igényeknek megfelelően finomhangolt adatgyűjtemények révén. Továbbá 480 milliárd paramétert aktivál egyszerre, 17-es csoportokban, így kiváló token-hatékonyságot és iparági szinten vezető minőséget biztosít, a lehető legjobb eredményeket elérve. Az Arctic jelentős hatékonyságnövekedést ér el a következtetés vagy a tanulás során, kb. 50%-kal kevesebb paramétert aktivál a DBRX-hez képest, és kb. 75%-kal kevesebbet a Llama 3 70B-hez képest. A kódolás (HumanEval+, MBPP+) és az SQL-generálás (Spider) terén is felülmúlja a DBRX, a Mixtral-8x7B és más kiemelkedő meglévő nyílt forráskódú modellek teljesítményét, ugyanakkor a legjobb eredményeket éri el az általános nyelvi megértés (MMLU, nagyméretű, több feladatú nyelvi megértés) terén is.

◇ A Snowflake vezette AI-forradalom mindenkinek

A Snowflake olyan adatbázist és a legmodernebb AI-építőelemeket biztosít a vállalatok számára, amelyekkel hasznos AI/gépi tanulási alkalmazásokat hozhatnak létre saját adataik felhasználásával. Amikor az ügyfelek az Arctic modellt a Snowflake Cortexen keresztül használják, könnyebben építhetnek termelési szintű AI-alkalmazásokat az optimális méretezéshez, az adatfelhő biztonsági és irányítási környezetén belül.

A Snowflake Arctic modellcsalád, amely magában foglalja az Arctic LLM-et, magában foglalja az Arctic Embed-et is, amely a Snowflake által nemrégiben kiadott, a legmodernebb szövegbeágyazási modellek egyike. A termék Apache 2.0 licenc alatt hozzáférhető az nyílt forráskódú közösség számára. Az öt modellből álló modellcsalád közvetlenül elérhető a Hugging Face webhelyen, és a Snowflake Cortexen belül is elérhető lesz magánbétában. A beágyazási modell, amely a hasonló modellek körülbelül harmadának méretével rendelkezik, optimalizálva van a legjobb keresési teljesítmény biztosítására, így hatékony és gazdaságos megoldást kínál a vállalatok számára a saját adatgyűjteményeik LLM-ekkel való integrálásához a kereséssel kiegészített generáláshoz (RAG) vagy a szemantikai keresési szolgáltatásokhoz.

A Snowflake nemrégiben hozzáadta a Reka és a Mistral AI modelljeit is, lehetővé téve az ügyfelek számára, hogy a lehető legjobb teljesítményt nyújtó, legújabb LLM-ekhez férjenek hozzá az adatfelhőben. Emellett nemrégiben bejelentették az NVIDIA-val fennálló bővített partnerségi kapcsolatukat, amely az AI-innováció folyamatos támogatását jelzi. A Snowflake adatfelhője a teljes körű NVIDIA-gyorsított platformmal kombinálva biztonságos és robusztus infrastruktúrát és számítási kapacitást biztosít az AI-termelékenység növeléséhez az iparágakban. A Snowflake Ventures nemrégiben befektetett a Landing AI, a Mistral AI és a Reka cégekbe is, hogy támogassa az ügyfeleket a vállalati adatokban rejlő érték kiaknázásában az LLM és az AI segítségével.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake, 2024-es adattrend jelentés kiadása… Az AI fejlesztők naponta átlagosan 90 alkalmazást fejlesztenek A Snowflake több mint 9000 ügyfél körében végzett felmérés eredményei szerint a LLM alkalmazások közül a chatbotok aránya nőtt, a fejlesztők a Pythont részesítik előnyben, és a nem strukturált adatok feldolgozása is növekedett. További részleteket a Snowf

2024. május 16.

Az SK C&C bemutatja a 'Soluer LLMOps' platformot, amely támogatja a testreszabott sLLM-ek implementációját az ügyfelek számára Az SK C&C piacra dobta a 'Soluer LLMOps' platformot, amely lehetővé teszi a vállalkozások számára, hogy testreszabott, kis méretű nagyméretű nyelvi modelleket (sLLM) építsenek. A platform lehetővé teszi az sLLM-ek egyszerű létrehozását húzás-és-elengedés

2024. május 20.

A Flitto és az Upstage együttműködési megállapodást kötött a mesterséges intelligencia nyelvi adatok létrehozásáról A Flitto és az Upstage együttműködési megállapodást kötött a kevésbé támogatott ázsiai nyelvek adatainak létrehozására. Ennek révén a két vállalat megerősíti a nagyméretű nyelvi modellek (LLM) teljesítményének javítására irányuló együttműködését, és a töb

2024. május 9.

Nyílt forráskódú AI teljes verem Az AI ökoszisztémában egyre több nyílt forráskódú LLM (nagy nyelvi modell) jelenik meg. Megjelentek a Mistral, a Llama és a phi-2, amelyek erőteljes teljesítményt és nyílt licencet kínálnak, és a használatukhoz számos eszköz is fejlesztés alatt áll. A Lan
RevFactory
RevFactory
RevFactory
RevFactory

2024. február 5.

Mi az LLM (Nagy Nyelvi Modell)? A nagy nyelvi modellek (LLM) a mesterséges intelligencia kulcsfontosságú technológiái, amelyek hatalmas mennyiségű szöveges adatot tanulnak meg, hogy emberhez hasonló nyelvi feldolgozási képességeket szerezzenek, és felhasználhatók chatbotként, fordításho
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024. április 1.

Az Apple OpenELM / MS Phi-3 / Meta Llama 3 nyilvánosságra hozatala Az Apple, a Microsoft és a Meta, mint a főbb technológiai óriások, nemrégiben nyilvánosságra hozták saját fejlesztésű, nagy nyelvi modelljeiket, új szelet hozva az AI iparba. A most kiadott modellek a méretcsökkentés, az adatoptimalizálás és a kontextus m
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

2024. április 27.

Mr. Know-All – 2023.7 A 2023. július havi „Mr. Know-All” havi AI magazin 1. számában bemutatjuk a legújabb AI technológiákat és trendeket, mint például a Claude 2-t, az Azure OpenAI-t, a LangChaint és a LlamaIndexet. Különösen részletesen foglalkozunk a LlamaIndex által biztos
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

Mr. Know-All 6. szám - 2024. március Bemutatjuk az LM Studio platformot, amely lehetővé teszi az Open Source LLM-ek, mint például a LLaMa, Falcon, MPT és StarCoder helyi futtatását, valamint a Devin AI szoftvermérnököt, a crewAI töb ügynökös automatizálási platformot és egyéb AI eszközöket é
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

A Google Gemini Ultra okostelefonba való beépítése A Google bejelentette, hogy a jövő évi okostelefonjaiba beépíti a „Gemini Ultra” nevű, felhőalapú mesterséges intelligencia modelljét. Az LLM-ek tömörítési technológiájának fejlődésével a modell a készüléken belül is futtatható, így az okostelefonok funkc
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024. április 1.