Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ceci est un post traduit par IA.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake lance "Arctic", un LLM d'entreprise à la pointe de l'ouverture du secteur

Choisir la langue

  • Français
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texte résumé par l'IA durumis

  • Snowflake a lancé "Arctic", un modèle linguistique de grande taille (LLM) open source offrant des performances et une efficacité de pointe.
  • Arctic est disponible gratuitement pour un usage commercial sous licence Apache 2.0 et prend en charge divers frameworks, ce qui le rend facilement personnalisable.
  • Grâce à Arctic, Snowflake offre aux entreprises les blocs de construction d'IA de pointe et les bases de données nécessaires pour créer des applications d'IA/d'apprentissage automatique pratiques en utilisant leurs propres données.

Ajout d'un modèle linguistique de grande taille (LLM) ouvert de pointe en termes de performances et d'efficacité à la famille de modèles Snowflake Arctic

Open source sous licence Apache 2.0… Flexibilité de personnalisation grâce à la prise en charge de différents frameworks

Snowflake, un fournisseur mondial de cloud de données, a annoncé la sortie de Snowflake Arctic, un modèle linguistique de grande taille (LLM) de niveau entreprise offrant une ouverture et des performances de pointe dans l'industrie.

Arctic, conçu avec la méthode exclusive de mélange d'experts (MoE) de Snowflake, prend en charge les performances et la productivité de pointe. Optimisé pour gérer les exigences complexes des entreprises, il répond aux conditions optimales dans divers domaines, notamment la génération de code SQL et l'exécution de commandes.

En particulier, Arctic est sous licence Apache 2.0, ce qui permet une utilisation commerciale gratuite. Snowflake a publié des informations détaillées sur les méthodes d'apprentissage de l'IA, établissant ainsi une nouvelle norme ouverte pour les technologies d'IA de niveau entreprise. Le LLM Arctic fait partie de la famille de modèles Snowflake Arctic, qui comprend également un modèle d'intégration de texte pour la recherche.

Sridhar Ramaswamy, PDG de Snowflake, a déclaré : « L'équipe de recherche sur l'IA de Snowflake est à l'avant-garde de l'innovation dans le domaine de l'IA, marquant un tournant important pour notre entreprise. » « En mettant à disposition de la communauté de l'IA des performances et une efficacité de pointe en open source, Snowflake élargit le champ des possibilités offertes par l'IA open source. » « Les capacités de Snowflake en matière d'IA s'améliorent également, ce qui nous permet de fournir à nos clients des modèles d'IA performants et fiables. »

◇ Arctic, un LLM open source qui favorise la collaboration à grande échelle

Selon un récent rapport de Forrester, environ 46 % des décideurs en matière d'IA des entreprises mondiales déclarent utiliser des LLM open source existants pour mettre en œuvre l'IA générative dans leur entreprise dans le cadre de leur stratégie d'IA. La plateforme de cloud de données de Snowflake est actuellement utilisée par plus de 9 400 entreprises et organisations dans le monde. Ces dernières peuvent désormais utiliser des données via des LLM offrant un niveau d'ouverture de pointe dans le secteur.

Arctic, un modèle open source sous licence Apache 2.0, offre également la flexibilité de choisir des méthodes d'inférence et d'apprentissage, ainsi que des modèles de code. Les utilisateurs peuvent utiliser et personnaliser Arctic avec les frameworks préférés des entreprises, tels que NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM et Hugging Face. Arctic est également disponible immédiatement via l'inférence sans serveur dans Snowflake Cortex. Snowflake Cortex est un service entièrement géré qui fournit des solutions d'apprentissage automatique et d'IA dans le cloud de données, avec une liste de modèles variés, notamment Hugging Face, Lamini, Microsoft Azure, le catalogue d'API NVIDIA, Perplexity et Together AI. Arctic devrait également être disponible sur Amazon Web Services (AWS).

◇ Efficacité exceptionnelle des ressources et performances de pointe

L'équipe de recherche sur l'IA de Snowflake est composée des meilleurs chercheurs et ingénieurs système du secteur. Arctic a été construit en moins de trois mois. L'apprentissage du modèle a utilisé des instances Amazon Elastic Compute Cloud (Amazon EC2) P5 et le coût d'apprentissage a représenté un huitième de celui des modèles similaires. Snowflake établit une nouvelle référence en termes de vitesse d'apprentissage des modèles d'entreprise ouverts de pointe, ce qui, en fin de compte, permet aux utilisateurs de créer des modèles rentables et personnalisés à la taille idéale.

La conception MoE différenciée d'Arctic améliore les performances des systèmes d'apprentissage et des modèles grâce à un assemblage de données minutieusement conçu en fonction des besoins des entreprises. De plus, en activant simultanément 480 milliards de paramètres par blocs de 17, Arctic offre une efficacité de jeton exceptionnelle et une qualité de pointe dans le secteur, garantissant ainsi des résultats optimaux. Pour une efficacité considérablement améliorée, Arctic active environ 50 % moins de paramètres que DBRX pendant l'inférence ou l'apprentissage, et environ 75 % moins que Llama 3 70B. En matière de codage (HumanEval+, MBPP+) et de génération SQL (Spider), Arctic surpasse les performances des modèles open source existants les plus représentatifs, tels que DBRX et Mixtral-8x7B, tout en affichant des performances de pointe en compréhension du langage naturel (MMLU, compréhension du langage de plusieurs tâches à grande échelle).

◇ L'innovation en matière d'IA pour tous, menée par Snowflake

Snowflake fournit les fondations de données et les blocs de construction d'IA de pointe dont les entreprises ont besoin pour créer des applications d'IA/d'apprentissage automatique pratiques à partir de leurs propres données. Lorsque les clients utilisent Arctic via Snowflake Cortex, il est plus facile de créer des applications d'IA de production à l'échelle appropriée dans le cadre de la sécurité et de la gouvernance du cloud de données.

La famille de modèles Snowflake Arctic, qui comprend le LLM Arctic, comprend également Arctic embed, l'un des modèles d'intégration de texte de pointe récemment lancés par Snowflake. Ce produit est disponible en open source sous licence Apache 2.0 et peut être utilisé gratuitement par la communauté open source. Cette famille de modèles, composée de cinq modèles, est disponible immédiatement sur Hugging Face et sera intégrée à Snowflake Cortex, en avant-première privée. Ce modèle d'intégration, qui est environ trois fois plus petit que des modèles similaires, est optimisé pour des performances de recherche de pointe, offrant aux entreprises une solution efficace et économique lorsqu'elles combinent leurs propres ensembles de données avec des LLM dans le cadre de services de recherche augmentée par génération (RAG) ou de recherche sémantique.

Récemment, Snowflake a ajouté des modèles de Reka et Mistral AI, afin de permettre aux clients d'accéder aux LLM les plus performants et les plus récents dans le cloud de données. En outre, Snowflake poursuit ses innovations en matière d'IA avec l'annonce récente d'un partenariat élargi avec NVIDIA. Le cloud de données de Snowflake, associé à la plateforme d'accélération NVIDIA complète, offre une infrastructure et des capacités de calcul sécurisées et puissantes qui exploitent la productivité de l'IA dans tous les secteurs. Snowflake Ventures a récemment investi dans Landing AI, Mistral AI et Reka, entre autres, pour aider les clients à exploiter la valeur des LLM et de l'IA à partir des données de leur entreprise.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake publie le rapport sur les tendances des données 2024 : les développeurs d’IA créent en moyenne 90 applications par jour Snowflake a mené une enquête auprès de plus de 9 000 clients et a constaté que la part des chatbots parmi les applications LLM a augmenté, que les développeurs privilégient Python et que le volume de données non structurées traitées a également augmenté.

16 mai 2024

SK C&C lance 'Soluer LLMOps', une plateforme de support d'implémentation sLLM personnalisée pour les clients SK C&C a lancé 'Soluer LLMOps', une plateforme de construction de petits modèles de langage de grande taille (sLLM) personnalisés pour les entreprises. Cette plateforme prend en charge la création facile de sLLM via la méthode de glisser-déposer en utilis

20 mai 2024

Plitto et Upstage signent un protocole d'accord pour la création de données linguistiques d'IA Plitto et Upstage ont signé un protocole d'accord pour la coopération dans la création de données linguistiques à faibles ressources dans la région asiatique. Grâce à cet accord, les deux sociétés renforceront leur coopération pour améliorer les performan

9 mai 2024

AI Full Stack : Une réalisation open source De nouveaux modèles LLM (grands modèles linguistiques) open source apparaissent dans l'écosystème AI. Des modèles puissants comme Mistral, Llama et phi-2, dotés de performances élevées et de licences ouvertes, ont été publiés, et divers outils sont en cou
RevFactory
RevFactory
RevFactory
RevFactory

5 février 2024

Qu'est-ce qu'un modèle linguistique de grande taille (LLM) ? Les modèles linguistiques de grande taille (LLM) sont une technologie clé de l'intelligence artificielle qui apprend à partir d'un ensemble de données textuelles volumineux pour acquérir des capacités de traitement du langage similaires à celles des humai
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 avril 2024

Publication d'OpenELM d'Apple / Phi-3 de MS / Llama 3 de Meta Apple, Microsoft et Meta, les principales entreprises de la Big Tech, ont récemment publié leurs propres grands modèles de langage, soufflant un vent nouveau sur le secteur de l'IA. Les modèles lancés cette fois évoluent dans différentes directions, telle
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 avril 2024

Le paradoxe des modèles d'IA de pointe : la transparence Le manque de transparence des systèmes d'IA de pointe est devenu un problème grave. Des chercheurs de l'Université de Stanford ont analysé 10 systèmes d'IA, y compris GPT-4, et ont conclu qu'aucun modèle ne publiait de manière transparente des information
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 mai 2024

Mr. Know-All – 2023.7 Le premier numéro du magazine mensuel d'IA "Mr. Know-All" de juillet 2023 présente Claude 2, Azure OpenAI, LangChain, LlamaIndex et d'autres technologies et tendances d'IA de pointe. En particulier, il fournit une description détaillée de LlamaIndex, qui
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 mars 2024

Mr. Know-All 6 - Mars 2024 Découvrez LM Studio, une plateforme permettant d'exécuter des LLM open source tels que LLaMa, Falcon, MPT, StarCoder en local, ainsi que divers outils et services d'IA, dont Devin, un ingénieur logiciel d'IA, et crewAI, une plateforme d'automatisation mul
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 mars 2024