Это сообщение переведено AI.
Snowflake выпускает Arctic, корпоративный LLM с лучшей в отрасли открытостью
- Язык написания: Корейский
- •
- Базовая страна: Все страны
- •
- ИТ
Выбрать язык
Текст, резюмированный ИИ durumis
- Snowflake выпустила Arctic, открытую модель языка (LLM) с лучшей в своем классе производительностью и эффективностью.
- Arctic доступна для бесплатного коммерческого использования по лицензии Apache 2.0 и поддерживает различные фреймворки для настройки.
- С помощью Arctic Snowflake предоставляет компаниям возможность использовать свои собственные данные для создания практичных приложений ИИ/машинного обучения, предоставляя им основу для данных и передовые компоненты для создания ИИ.
Добавление в семейство моделей Snowflake Arctic модели открытого крупномасштабного языкового моделирования, обладающей лучшими в своем классе производительностью и эффективностью
Открытый исходный код под лицензией Apache 2.0… Гибкость для настройки с помощью поддержки различных фреймворков
Глобальная компания по предоставлению облачных данных Snowflake объявила о выпуске корпоративной крупномасштабной языковой модели (Large Language Model, LLM) «Snowflake Arctic», которая обладает лучшими в своем классе открытостью и производительностью.
Arctic, разработанный на основе уникальной технологии Snowflake «Смесь экспертов» (MoE·Mixture-of-Experts), обеспечивает высочайшую производительность и продуктивность. Он оптимизирован для обработки сложных требований предприятий, удовлетворяя самые высокие требования по различным критериям, таким как генерация кода SQL, выполнение команд и т. д.
В частности, Arctic доступен под лицензией Apache 2.0, которая разрешает бесплатное использование в коммерческих целях, а Snowflake раскрывает подробную информацию о методах обучения ИИ, устанавливая новый открытый стандарт для корпоративных технологий ИИ. Кроме того, LLM Arctic входит в состав семейства моделей Snowflake Arctic и включает в себя модель текстовых вложений для поиска.
Сридар Рамасвами, генеральный директор Snowflake, сказал: «Команда Snowflake AI Research находится на переднем крае инноваций в области ИИ, что является важным моментом для нашей компании». «Мы расширяем границы возможностей открытого исходного кода ИИ, предоставляя сообществу ИИ лучшие в своем классе производительность и эффективность в открытом исходном коде. Мы также улучшаем наши возможности в области ИИ, предоставляя клиентам эффективные и надежные модели ИИ».
◇ Arctic — это LLM с открытым исходным кодом, который поддерживает широкое сотрудничество
Согласно недавнему отчету исследовательской компании Forrester, около 46% руководителей, принимающих решения по вопросам ИИ в глобальных компаниях, ответили, что «в рамках своей стратегии ИИ они используют существующие LLM с открытым исходным кодом для внедрения генеративного ИИ в свои компании». Платформа Snowflake Data Cloud в настоящее время используется в 9400 компаниях и организациях по всему миру. Благодаря LLM, обеспечивающим наивысший уровень открытости, они получают возможность использовать свои данные.
Arctic, являющийся моделью с открытым исходным кодом под лицензией Apache 2.0, также предлагает гибкость в выборе метода вывода и обучения вместе с шаблонами кода. Пользователи могут использовать Arctic и настраивать его с помощью предпочитаемых фреймворков, таких как NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM, Hugging Face. Arctic можно использовать мгновенно с помощью бессерверного вывода в Snowflake Cortex. Snowflake Cortex — это полностью управляемая услуга, которая предлагает решения для машинного обучения и ИИ в облаке данных, включая широкий спектр моделей, таких как Hugging Face, Lamini, Microsoft Azure, Каталог API NVIDIA, Perplexity, Together AI. Планируется, что Arctic станет доступен и в Amazon Web Services (AWS).
◇ Отличная эффективность использования ресурсов и высочайший уровень производительности
Команда Snowflake AI Research состоит из ведущих исследователей и инженеров систем. Создание Arctic заняло менее 3 месяцев. Для обучения модели использовались экземпляры Amazon Elastic Compute Cloud (Amazon EC2) P5, а затраты на обучение составили всего 1/8 от затрат на аналогичные модели. Snowflake устанавливает новый стандарт для скорости обучения передовых открытых корпоративных моделей, что в конечном итоге позволяет пользователям создавать экономически эффективные и настраиваемые модели в оптимальном масштабе.
Уникальная конструкция MoE в Arctic улучшает как систему обучения, так и производительность модели за счет тщательно продуманной сборки данных в соответствии с требованиями предприятия. Кроме того, одновременная активация 4800 миллиардов параметров по 17 одновременно обеспечивает отличную токенизацию и высочайшее качество, предоставляя оптимальные результаты. Arctic активирует примерно на 50% меньше параметров, чем DBRX, и на 75% меньше, чем Llama 3 70B, во время вывода или обучения для повышения эффективности. Arctic превосходит производительность ведущих существующих моделей с открытым исходным кодом, таких как DBRX и Mixtral-8x7B, в задачах кодирования (HumanEval+, MBPP+) и генерации SQL (Spider), а также проявляет исключительную производительность в задачах понимания естественного языка (MMLU, крупномасштабное понимание языка для нескольких задач).
◇ Инновации в области ИИ для всех под руководством Snowflake
Snowflake предоставляет предприятиям базовые данные и передовые строительные блоки ИИ для создания практичных приложений ИИ/машинного обучения с использованием их собственных данных. Использование Arctic через Snowflake Cortex упрощает создание производственных приложений ИИ в соответствующем масштабе в рамках безопасности и управления облаком данных.
В семейство моделей Snowflake Arctic, в которое входит LLM Arctic, также входит Arctic Embed, одна из новейших моделей текстовых вложений, предоставленная Snowflake недавно. Этот продукт доступен в открытом исходном коде под лицензией Apache 2.0 для бесплатного использования сообществом с открытым исходным кодом. Это семейство из пяти моделей доступно в Hugging Face и будет интегрировано в Snowflake Cortex и представлено в виде частного предварительного просмотра. Эта модель вложений, размер которой примерно в 3 раза меньше, чем у аналогичных моделей, оптимизирована для обеспечения наилучшей производительности поиска, предоставляя компаниям эффективные и экономичные решения при объединении их собственных наборов данных с LLM в рамках поиска с усилением генерацией (RAG) или услуг семантического поиска.
Недавно Snowflake добавила модели от Reka и Mistral AI, чтобы клиенты могли использовать новейшие LLM с наивысшей производительностью в облаке данных. Кроме того, компания недавно объявила о расширении партнерства с NVIDIA, чтобы продолжать внедрять инновации в области ИИ. Snowflake Data Cloud в сочетании с платформой ускорения NVIDIA full-stack обеспечивает безопасную и мощную инфраструктуру и вычислительные возможности для активного использования производительности ИИ во всех отраслях. Snowflake Ventures недавно инвестировала в Landing AI, Mistral AI, Reka и другие компании, чтобы помочь клиентам извлекать ценность из LLM и ИИ в своих собственных корпоративных данных.