Ceci est un post traduit par IA.
Snowflake lance "Arctic", un LLM d'entreprise à la pointe de l'ouverture du secteur
- Langue de rédaction : Coréen
- •
- Pays de référence : Tous les pays
- •
- Technologies de l'information
Choisir la langue
Texte résumé par l'IA durumis
- Snowflake a lancé "Arctic", un modèle linguistique de grande taille (LLM) open source offrant des performances et une efficacité de pointe.
- Arctic est disponible gratuitement pour un usage commercial sous licence Apache 2.0 et prend en charge divers frameworks, ce qui le rend facilement personnalisable.
- Grâce à Arctic, Snowflake offre aux entreprises les blocs de construction d'IA de pointe et les bases de données nécessaires pour créer des applications d'IA/d'apprentissage automatique pratiques en utilisant leurs propres données.
Ajout d'un modèle linguistique de grande taille (LLM) ouvert de pointe en termes de performances et d'efficacité à la famille de modèles Snowflake Arctic
Open source sous licence Apache 2.0… Flexibilité de personnalisation grâce à la prise en charge de différents frameworks
Snowflake, un fournisseur mondial de cloud de données, a annoncé la sortie de Snowflake Arctic, un modèle linguistique de grande taille (LLM) de niveau entreprise offrant une ouverture et des performances de pointe dans l'industrie.
Arctic, conçu avec la méthode exclusive de mélange d'experts (MoE) de Snowflake, prend en charge les performances et la productivité de pointe. Optimisé pour gérer les exigences complexes des entreprises, il répond aux conditions optimales dans divers domaines, notamment la génération de code SQL et l'exécution de commandes.
En particulier, Arctic est sous licence Apache 2.0, ce qui permet une utilisation commerciale gratuite. Snowflake a publié des informations détaillées sur les méthodes d'apprentissage de l'IA, établissant ainsi une nouvelle norme ouverte pour les technologies d'IA de niveau entreprise. Le LLM Arctic fait partie de la famille de modèles Snowflake Arctic, qui comprend également un modèle d'intégration de texte pour la recherche.
Sridhar Ramaswamy, PDG de Snowflake, a déclaré : « L'équipe de recherche sur l'IA de Snowflake est à l'avant-garde de l'innovation dans le domaine de l'IA, marquant un tournant important pour notre entreprise. » « En mettant à disposition de la communauté de l'IA des performances et une efficacité de pointe en open source, Snowflake élargit le champ des possibilités offertes par l'IA open source. » « Les capacités de Snowflake en matière d'IA s'améliorent également, ce qui nous permet de fournir à nos clients des modèles d'IA performants et fiables. »
◇ Arctic, un LLM open source qui favorise la collaboration à grande échelle
Selon un récent rapport de Forrester, environ 46 % des décideurs en matière d'IA des entreprises mondiales déclarent utiliser des LLM open source existants pour mettre en œuvre l'IA générative dans leur entreprise dans le cadre de leur stratégie d'IA. La plateforme de cloud de données de Snowflake est actuellement utilisée par plus de 9 400 entreprises et organisations dans le monde. Ces dernières peuvent désormais utiliser des données via des LLM offrant un niveau d'ouverture de pointe dans le secteur.
Arctic, un modèle open source sous licence Apache 2.0, offre également la flexibilité de choisir des méthodes d'inférence et d'apprentissage, ainsi que des modèles de code. Les utilisateurs peuvent utiliser et personnaliser Arctic avec les frameworks préférés des entreprises, tels que NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM et Hugging Face. Arctic est également disponible immédiatement via l'inférence sans serveur dans Snowflake Cortex. Snowflake Cortex est un service entièrement géré qui fournit des solutions d'apprentissage automatique et d'IA dans le cloud de données, avec une liste de modèles variés, notamment Hugging Face, Lamini, Microsoft Azure, le catalogue d'API NVIDIA, Perplexity et Together AI. Arctic devrait également être disponible sur Amazon Web Services (AWS).
◇ Efficacité exceptionnelle des ressources et performances de pointe
L'équipe de recherche sur l'IA de Snowflake est composée des meilleurs chercheurs et ingénieurs système du secteur. Arctic a été construit en moins de trois mois. L'apprentissage du modèle a utilisé des instances Amazon Elastic Compute Cloud (Amazon EC2) P5 et le coût d'apprentissage a représenté un huitième de celui des modèles similaires. Snowflake établit une nouvelle référence en termes de vitesse d'apprentissage des modèles d'entreprise ouverts de pointe, ce qui, en fin de compte, permet aux utilisateurs de créer des modèles rentables et personnalisés à la taille idéale.
La conception MoE différenciée d'Arctic améliore les performances des systèmes d'apprentissage et des modèles grâce à un assemblage de données minutieusement conçu en fonction des besoins des entreprises. De plus, en activant simultanément 480 milliards de paramètres par blocs de 17, Arctic offre une efficacité de jeton exceptionnelle et une qualité de pointe dans le secteur, garantissant ainsi des résultats optimaux. Pour une efficacité considérablement améliorée, Arctic active environ 50 % moins de paramètres que DBRX pendant l'inférence ou l'apprentissage, et environ 75 % moins que Llama 3 70B. En matière de codage (HumanEval+, MBPP+) et de génération SQL (Spider), Arctic surpasse les performances des modèles open source existants les plus représentatifs, tels que DBRX et Mixtral-8x7B, tout en affichant des performances de pointe en compréhension du langage naturel (MMLU, compréhension du langage de plusieurs tâches à grande échelle).
◇ L'innovation en matière d'IA pour tous, menée par Snowflake
Snowflake fournit les fondations de données et les blocs de construction d'IA de pointe dont les entreprises ont besoin pour créer des applications d'IA/d'apprentissage automatique pratiques à partir de leurs propres données. Lorsque les clients utilisent Arctic via Snowflake Cortex, il est plus facile de créer des applications d'IA de production à l'échelle appropriée dans le cadre de la sécurité et de la gouvernance du cloud de données.
La famille de modèles Snowflake Arctic, qui comprend le LLM Arctic, comprend également Arctic embed, l'un des modèles d'intégration de texte de pointe récemment lancés par Snowflake. Ce produit est disponible en open source sous licence Apache 2.0 et peut être utilisé gratuitement par la communauté open source. Cette famille de modèles, composée de cinq modèles, est disponible immédiatement sur Hugging Face et sera intégrée à Snowflake Cortex, en avant-première privée. Ce modèle d'intégration, qui est environ trois fois plus petit que des modèles similaires, est optimisé pour des performances de recherche de pointe, offrant aux entreprises une solution efficace et économique lorsqu'elles combinent leurs propres ensembles de données avec des LLM dans le cadre de services de recherche augmentée par génération (RAG) ou de recherche sémantique.
Récemment, Snowflake a ajouté des modèles de Reka et Mistral AI, afin de permettre aux clients d'accéder aux LLM les plus performants et les plus récents dans le cloud de données. En outre, Snowflake poursuit ses innovations en matière d'IA avec l'annonce récente d'un partenariat élargi avec NVIDIA. Le cloud de données de Snowflake, associé à la plateforme d'accélération NVIDIA complète, offre une infrastructure et des capacités de calcul sécurisées et puissantes qui exploitent la productivité de l'IA dans tous les secteurs. Snowflake Ventures a récemment investi dans Landing AI, Mistral AI et Reka, entre autres, pour aider les clients à exploiter la valeur des LLM et de l'IA à partir des données de leur entreprise.