스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake lance Arctic, un LLM d'entreprise à l'ouverture inégalée

Création: 2024-04-25

Création: 2024-04-25 11:41

Ajout d'un modèle linguistique de grande taille (LLM) ouvert de pointe à la gamme de modèles Snowflake Arctic

Open source sous licence Apache 2.0 : flexibilité de personnalisation grâce à la prise en charge de divers frameworks.

Snowflake (Snowflake), une entreprise mondiale de cloud de données, a annoncé le lancement d’Arctic, un modèle linguistique de grande taille (LLM) d’entreprise offrant une ouverture et des performances inégalées.

Conçu selon la méthode exclusive de mélange d’experts (MoE – Mixture-of-Experts) de Snowflake, Arctic offre des performances et une productivité optimales. Il est également optimisé pour gérer les besoins complexes des entreprises, atteignant des niveaux de pointe dans divers domaines, tels que la génération de code SQL et l’exécution de commandes.

Arctic est disponible sous licence Apache 2.0, ce qui permet une utilisation commerciale gratuite. Snowflake a publié des informations détaillées sur les méthodes d’apprentissage de l’IA, établissant ainsi une nouvelle norme d’ouverture pour les technologies d’IA d’entreprise. Par ailleurs, le modèle linguistique de grande taille (LLM) Arctic fait partie de la gamme de modèles Snowflake Arctic, qui comprend également un modèle d’intégration de texte pour la recherche.

« L’équipe de recherche sur l’IA de Snowflake a réalisé des innovations de pointe dans le domaine de l’IA, marquant un tournant important pour notre entreprise », a déclaré Sridhar Ramaswamy, PDG de Snowflake. « En publiant un modèle d’IA aux performances et à l’efficacité inégalées sous forme open source, Snowflake élargit le champ des possibles de l’IA open source. Nous renforçons également nos capacités en matière d’IA en fournissant à nos clients des modèles d’IA compétents et fiables. »

◇ Arctic, un modèle linguistique de grande taille (LLM) open source favorisant une collaboration étendue

Selon un récent rapport de Forrester, environ 46 % des décideurs en IA des grandes entreprises déclarent utiliser des modèles linguistiques de grande taille (LLM) open source existants dans le cadre de leur stratégie d’IA afin d’intégrer l’IA générative dans leurs organisations. La plateforme de cloud de données Snowflake est actuellement utilisée par plus de 9 400 entreprises et organisations à travers le monde. Grâce à ce modèle linguistique de grande taille (LLM) hautement ouvert, elles peuvent désormais exploiter leurs données plus efficacement.

En tant que modèle open source sous licence Apache 2.0, Arctic offre une flexibilité accrue en termes de choix de la méthode d’inférence et d’apprentissage, ainsi que de modèles de code. Les utilisateurs peuvent personnaliser et utiliser Arctic avec les frameworks de leur choix, tels que NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM et Hugging Face. Snowflake Cortex permet également d’utiliser Arctic instantanément grâce à l’inférence sans serveur. Snowflake Cortex est un service entièrement géré qui propose des solutions d’IA et d’apprentissage automatique dans le cloud de données, ainsi qu’une liste de modèles variés, notamment Hugging Face, Lamini, Microsoft Azure, le catalogue d’API NVIDIA, Perplexity et Together AI. Arctic sera également disponible sur Amazon Web Services (AWS).

◇ Efficacité énergétique exceptionnelle et performances optimales

L’équipe de recherche sur l’IA de Snowflake est composée de chercheurs et d’ingénieurs système de premier plan. La construction d’Arctic a pris moins de trois mois. Pour l’apprentissage du modèle, des instances Amazon Elastic Compute Cloud (Amazon EC2) P5 ont été utilisées, et les coûts d’apprentissage ont été réduits d’un facteur 8 par rapport aux modèles similaires. Snowflake établit une nouvelle référence en matière de vitesse d’apprentissage des modèles d’entreprise ouverts de pointe, permettant aux utilisateurs de générer des modèles optimisés, rentables et personnalisés à la bonne échelle.

La conception MoE différenciée d’Arctic améliore à la fois le système d’apprentissage et les performances du modèle grâce à l’assemblage précis des données en fonction des besoins de l’entreprise. De plus, l’activation simultanée de 480 milliards de paramètres, 17 à la fois, permet une efficacité exceptionnelle en termes de jetons et une qualité optimale, garantissant ainsi des résultats de pointe. Pour optimiser l’efficacité, Arctic active environ 50 % de paramètres en moins que DBRX et 75 % de moins que Llama 3 70B pendant l’inférence et l’apprentissage. En termes de codage (HumanEval+, MBPP+) et de génération de SQL (Spider), Arctic surpasse les performances des modèles open source existants tels que DBRX et Mixtral-8x7B, tout en affichant des performances de premier ordre en matière de compréhension du langage naturel (MMLU, compréhension du langage naturel multitâches à grande échelle).

◇ L’innovation en matière d’IA pour tous, menée par Snowflake

Snowflake fournit la base de données et les blocs de construction d’IA de pointe nécessaires aux entreprises pour créer des applications d’IA/d’apprentissage automatique pratiques à partir de leurs propres données. Grâce à Snowflake Cortex, les clients peuvent plus facilement créer des applications d’IA de production à l’échelle appropriée dans le cadre des paramètres de sécurité et de gouvernance du cloud de données lorsqu’ils utilisent Arctic.

La gamme de modèles Snowflake Arctic, qui comprend le modèle linguistique de grande taille (LLM) Arctic, inclut également Arctic Embed, l’un des modèles d’intégration de texte de pointe récemment lancés par Snowflake. Ce produit est disponible gratuitement dans la communauté open source sous licence Apache 2.0. Cette gamme de cinq modèles est disponible directement sur Hugging Face et sera intégrée à Snowflake Cortex dans le cadre d’une version préliminaire privée. Environ trois fois plus petit que les modèles similaires, ce modèle d’intégration est optimisé pour des performances de recherche optimales, offrant aux entreprises une solution économique et efficace pour combiner leurs ensembles de données propres avec des modèles linguistiques de grande taille (LLM) dans le cadre de services de recherche sémantique ou de recherche augmentée par la génération (RAG).

Snowflake continue de proposer aux clients les modèles linguistiques de grande taille (LLM) les plus performants et les plus récents dans le cloud de données, comme en témoignent les ajouts récents des modèles Reka et Mistral AI. L’entreprise poursuit également ses innovations en matière d’IA, comme en atteste son partenariat élargi avec NVIDIA récemment annoncé. Le cloud de données Snowflake, combiné à la plateforme NVIDIA accélérée complète, offre une infrastructure et des capacités de calcul sécurisées et puissantes pour exploiter pleinement la productivité de l’IA dans tous les secteurs. Snowflake Ventures a également investi dans des entreprises comme Landing AI, Mistral AI et Reka afin d’aider les clients à créer de la valeur grâce à l’IA et aux modèles linguistiques de grande taille (LLM) à partir de leurs propres données d’entreprise.



Commentaires0