Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Dies ist ein von KI übersetzter Beitrag.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake bringt mit 'Arctic' ein branchenführendes, offenes Enterprise-LLM auf den Markt

  • Schreibsprache: Koreanisch
  • Referenzland: Alle Länder country-flag

Sprache auswählen

  • Deutsch
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Von durumis AI zusammengefasster Text

  • Snowflake hat das Open-Source-Large Language Model (LLM) 'Arctic' mit branchenführender Leistung und Effizienz auf den Markt gebracht.
  • Arctic steht unter der Apache 2.0-Lizenz zur kostenlosen kommerziellen Nutzung zur Verfügung und unterstützt verschiedene Frameworks für eine einfache Anpassung.
  • Mit Arctic bietet Snowflake Unternehmen die Möglichkeit, mithilfe ihrer eigenen Daten datengestützte AI/Machine-Learning-Anwendungen zu entwickeln und gleichzeitig auf fortschrittliche AI-Bausteine zurückzugreifen.

Snowflake fügt seiner Arctic-Modellfamilie ein Open-Source-Großes Sprachmodell (Large Language Model, LLM) mit branchenführender Leistung und Effizienz hinzu.

Das Open-Source-Modell basiert auf der Apache 2.0-Lizenz und bietet Flexibilität durch Unterstützung verschiedener Frameworks, die eine Anpassung ermöglichen.

Snowflake, ein globales Unternehmen für Daten-Clouds, hat „Snowflake Arctic“, ein Unternehmensklassisches Großes Sprachmodell (LLM) mit branchenführender Offenheit und Leistung, veröffentlicht.

Arctic, das mit Snowflake's einzigartigem MoE-Ansatz (Mixture-of-Experts) entwickelt wurde, bietet branchenführende Leistung und Produktivität. Es ist für die Bearbeitung komplexer Anforderungen von Unternehmen optimiert und erfüllt die höchsten Standards in verschiedenen Bereichen, darunter die SQL-Code-Generierung und die Ausführung von Befehlen.

Besonders hervorzuheben ist, dass Arctic unter der Apache 2.0-Lizenz steht, die eine kostenlose kommerzielle Nutzung ermöglicht. Snowflake veröffentlicht detaillierte Informationen zu den AI-Trainingsmethoden und setzt damit einen neuen Standard für die Offenheit von Unternehmensklassen-AI-Technologien. Das Arctic LLM ist Teil der Snowflake Arctic-Modellfamilie und beinhaltet auch ein Text-Embedding-Modell für die Suche.

Sridhar Ramaswamy, CEO von Snowflake, sagte: „Das AI-Forschungsteam von Snowflake treibt Innovationen an vorderster Front der AI-Entwicklung voran und schafft einen wichtigen Wendepunkt für unser Unternehmen. Mit der Veröffentlichung von Open-Source-Modellen mit branchenführender Leistung und Effizienz für die AI-Community erweitert Snowflake die Möglichkeiten von Open-Source-AI. Die AI-Kompetenz von Snowflake wird gestärkt, da wir unseren Kunden leistungsstarke und zuverlässige AI-Modelle anbieten können.“

◇ Arctic, ein Open-Source-LLM, das umfassende Zusammenarbeit unterstützt

Laut einem kürzlich veröffentlichten Bericht des Marktforschungsunternehmens Forrester nutzen etwa 46 % der Entscheidungsträger für AI in globalen Unternehmen „bereits bestehende Open-Source-LLMs, um generative AI als Teil ihrer AI-Strategie in ihren Unternehmen einzuführen“. Die Daten-Cloud-Plattform von Snowflake wird derzeit von über 9.400 Unternehmen und Organisationen weltweit für Datenbasis verwendet. Durch die Bereitstellung von LLMs mit branchenführender Offenheit können diese Unternehmen Daten nutzen.

Arctic, ein Open-Source-Modell unter der Apache 2.0-Lizenz, bietet auch Flexibilität bei der Auswahl von Inferenz- und Trainingsmethoden zusammen mit Code-Vorlagen. Benutzer können Arctic mit von Unternehmen bevorzugten Frameworks verwenden und anpassen, darunter NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM und Hugging Face. In Snowflake Cortex können Benutzer Arctic mit Serverless Inference sofort verwenden. Snowflake Cortex bietet vollständig verwaltete Dienste, einschließlich einer breiten Palette von Modellen aus Hugging Face, Lamini, Microsoft Azure, NVIDIA API-Katalog, Perplexity und Together AI, sowie Machine-Learning- und AI-Lösungen in der Daten-Cloud. Die Nutzung von Arctic wird auch für Amazon Web Services (AWS) verfügbar sein.

◇ Hervorragender Ressourceneffizienz und branchenführende Leistung

Das AI-Forschungsteam von Snowflake besteht aus branchenführenden Forschern und Systemingenieuren. Der Aufbau von Arctic dauerte weniger als drei Monate. Für das Modelltraining wurden Amazon Elastic Compute Cloud (Amazon EC2) P5-Instanzen verwendet, wobei die Trainingskosten im Vergleich zu ähnlichen Modellen um 80 % niedriger waren. Snowflake setzt neue Maßstäbe für die Geschwindigkeit des Trainings von modernsten Open-Source-Modellen für Unternehmen und ermöglicht es Benutzern letztendlich, kostengünstige und maßgeschneiderte Modelle in optimaler Größe zu erstellen.

Die differenzierte MoE-Architektur von Arctic verbessert sowohl das Lernsystem als auch die Modellleistung durch eine präzise, ​​auf die Anforderungen des Unternehmens zugeschnittene Datenmontage. Darüber hinaus werden 480 Milliarden Parameter gleichzeitig in 17er-Gruppen aktiviert, was zu hoher Token-Effizienz, branchenführender Qualität und optimalen Ergebnissen führt. Arctic aktiviert während der Inferenz oder des Trainings etwa 50 % weniger Parameter als DBRX und etwa 75 % weniger Parameter als Llama 3 70B, um die Effizienz deutlich zu verbessern. Arctic übertrifft auch die Leistung bekannter Open-Source-Modelle wie DBRX und Mixtral-8x7B in den Bereichen Codierung (HumanEval+, MBPP+) und SQL-Generierung (Spider) und erzielt gleichzeitig Spitzenleistungen im Bereich des allgemeinen Sprachverständnisses (MMLU, Large Multitask Language Understanding).

◇ AI-Innovation für alle, angetrieben von Snowflake

Snowflake bietet Unternehmen die Datenbasis und die modernsten AI-Bausteine, die sie benötigen, um praktische AI/Machine-Learning-Anwendungen mit ihren eigenen Daten zu erstellen. Wenn Kunden Arctic über Snowflake Cortex verwenden, wird es einfacher, AI-Anwendungen in Produktionsqualität in angemessener Größe innerhalb des Sicherheits- und Governance-Bereichs der Daten-Cloud zu erstellen.

Die Snowflake Arctic-Modellfamilie, zu der auch das Arctic LLM gehört, umfasst auch Arctic Embed, eines der neuesten, fortschrittlichen Text-Embedding-Modelle, das Snowflake kürzlich veröffentlicht hat. Dieses Produkt ist unter der Apache 2.0-Lizenz verfügbar und steht der Open-Source-Community kostenlos zur Verfügung. Diese Produktfamilie, die aus fünf Modellen besteht, ist sofort bei Hugging Face verfügbar und wird in Snowflake Cortex in Form einer privaten Vorschau integriert. Dieses Embedding-Modell, das etwa ein Drittel der Größe ähnlicher Modelle hat, ist für die bestmögliche Suchleistung optimiert und bietet Unternehmen eine effiziente und kostengünstige Lösung, um ihre einzigartigen Datensätze mit LLMs in Verbindung zu bringen, etwa als Teil von Retrieval Augmented Generation (RAG) oder semantischen Suchdiensten.

Snowflake unterstützt Kunden weiterhin dabei, auf die leistungsstärksten und neuesten LLMs in der Daten-Cloud zuzugreifen, indem es kürzlich auch Modelle von Reka und Mistral AI hinzugefügt hat. Außerdem hat Snowflake kürzlich eine erweiterte Partnerschaft mit NVIDIA bekannt gegeben, um die AI-Innovationen voranzutreiben. Die Daten-Cloud von Snowflake bietet eine sichere und leistungsstarke Infrastruktur und Rechenleistung in Kombination mit der NVIDIA-Vollstapel-Beschleunigungsplattform, um die AI-Produktivität in allen Branchen zu nutzen. Snowflake Ventures hat kürzlich auch in Unternehmen wie Landing AI, Mistral AI und Reka investiert, um Kunden bei der Nutzung von LLMs und AI, um Wert aus ihren Unternehmensdaten zu generieren, zu unterstützen.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake veröffentlicht Daten-Trendbericht 2024: KI-Entwickler erstellen durchschnittlich 90 Apps pro Tag Laut einer Umfrage von Snowflake unter über 9.000 Kunden hat der Anteil von Chatbots unter den LLM-Apps zugenommen, Entwickler favorisieren Python und die Verarbeitung unstrukturierter Daten hat zugenommen. Weitere Informationen finden Sie im Snowflake Da

16. Mai 2024

SK C&C stellt Plattform „Soluer LLMOps“ für die Implementierung von kundenspezifischen sLLM vor SK C&C hat die Plattform „Soluer LLMOps“ für die Erstellung von kundenspezifischen kleinen Sprachmodellen (sLLM) veröffentlicht. Diese Plattform ermöglicht die einfache Erstellung von sLLM per Drag-and-Drop mit verschiedenen Foundation-Modellen wie ChatGP

20. Mai 2024

RSN nimmt an der AI Expo Korea teil und stellt die Plattform „Global MI“ für die Analyse globaler Marktentwicklungen auf Basis von generativer KI vor RSN stellt auf der „AI Expo Korea 2024“ die Plattform „Global MI“ für die Analyse globaler Marktentwicklungen vor. Die Plattform nutzt die RAG-Technologie, um die Kosten für die Datenverarbeitung zu senken und die Zuverlässigkeit zu erhöhen, und liefert m

25. April 2024

AI Full Stack mit Open Source realisieren Im Ökosystem der künstlichen Intelligenz tauchen immer mehr Open-Source-LLM-Modelle (Large Language Models) auf. Modelle wie Mistral, Llama und phi-2 mit leistungsstarker Performance und einer Open-Source-Lizenz wurden veröffentlicht und es werden ständig
RevFactory
RevFactory
RevFactory
RevFactory

5. Februar 2024

Was ist ein LLM (Large Language Model)? Große Sprachmodelle (LLMs) sind ein zentrales Element der künstlichen Intelligenz. Sie werden mit riesigen Textdaten trainiert und entwickeln so Sprachverarbeitungsfähigkeiten, die denen des Menschen ähneln. LLMs können in verschiedenen Bereichen eingeset
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1. April 2024

Veröffentlichung von Apples OpenELM / MS Phi-3 / Metas Llama 3 Apple, Microsoft und Meta, wichtige Big-Tech-Unternehmen, haben kürzlich ihre selbst entwickelten großen Sprachmodelle veröffentlicht und damit einen neuen Wind in die KI-Branche gebracht. Die neu veröffentlichten Modelle haben sich in verschiedenen Richt
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27. April 2024

Das Paradoxon der führenden KI-Modelle: Transparenz Der Mangel an Transparenz bei hochmodernen KI-Systemen ist zu einem ernsten Problem geworden. Forscher der Stanford University haben 10 KI-Systeme, darunter GPT-4, analysiert und festgestellt, dass kein Modell Informationen wie Datenherkunft, Trainingsmet
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14. Mai 2024

Mr. Know-All 6 - März 2024 Wir stellen Ihnen LM Studio, eine Plattform zum Ausführen von Open-Source-LLMs wie LLaMa, Falcon, MPT und StarCoder lokal vor, sowie verschiedene KI-Tools und -Dienste wie den KI-Softwareentwickler Devin und die Multi-Agenten-Automatisierungsplattform cre
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024

Mr. Know-All – 2023.7 Die erste Ausgabe des monatlichen AI-Magazins „Mr. Know-All“ im Juli 2023 stellt Claude 2, Azure OpenAI, LangChain, LlamaIndex und andere aktuelle AI-Technologien und Trends vor. Besonders wird die Einbettung persönlicher Daten in LlamaIndex und das Kernk
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21. März 2024