![translation](https://cdn.durumis.com/common/trans.png)
これはAIが翻訳した投稿です。
Snowflake、業界最高レベルのオープン性を備えたエンタープライズ向けLLM「Arctic」をリリース
- 作成言語: 韓国語
- •
-
基準国: すべての国
- •
- IT(情報技術)
言語を選択
durumis AIが要約した文章
- Snowflakeは、同クラス最高の性能と効率性を備えたオープンソースの大規模言語モデル(LLM)「Arctic」をリリースした。
- Arcticは、Apache 2.0ライセンスで無償の商用利用が可能です。さまざまなフレームワークのサポートにより、カスタマイズが可能です。
- Snowflakeは、Arcticを通じて、企業が独自のデータを活用して、実用的なAI/機械学習アプリケーションの開発に必要なデータ基盤と最先端のAI構築ブロックを提供します。
スノーフレーク・アークティック・モデルファミリーに、同クラス最高の性能と効率性を備えたオープンな大規模言語モデルを追加
Apache 2.0 ライセンスに基づくオープンソース…さまざまなフレームワークをサポートすることで、カスタマイズ可能な柔軟性を提供
グローバルデータクラウド企業のスノーフレーク(Snowflake)は、業界最高レベルのオープン性と性能を備えたエンタープライズ級の大規模言語モデル(Large Language Model、以下LLM)「スノーフレーク・アークティック(Snowflake Arctic)」をリリースしました。
スノーフレーク独自の専門家混合(MoE・Mixture-of-Experts)方式で設計されたアークティックは、同クラス最高の性能と生産性をサポートします。企業の複雑な要件処理にも最適化されており、SQLコード生成、コマンド実行など、さまざまな基準で最高の条件を満たします。
特にアークティックは、商用利用まで無料のApache 2.0ライセンスで、スノーフレークはAI学習方法に関する詳細な情報を公開し、エンタープライズ級AI技術に関する新しいオープン標準を確立しました。また、アークティックLLMは、スノーフレーク・アークティック・モデルファミリーの一部として、検索利用のためのテキスト埋め込みモデルも含まれています。
スノーフレークのCEO、シュリダー・ラマスワミ(Sridhar Ramaswamy)氏は、「スノーフレークのAI研究チームは、AI分野の最前線で革新をリードし、当社にとって重要な転換点をもたらしました」と述べています。「スノーフレークは、オープンソースで業界最高の性能と効率性をAIコミュニティに公開することで、オープンソースAIが持つ可能性の領域を広げています。顧客に有能で信頼性の高いAIモデルを提供できるスノーフレークのAI能力も高まっています。」
◇ アークティック、幅広いコラボレーションをサポートするオープンソースLLM
市場調査機関のフォレスター(Forrester)が発表した最近のレポートによると、グローバル企業のAI意思決定者の約46%が、「AI戦略の一環として、自社に生成AIを導入するために、既存のオープンソースLLMを活用する」と回答しています。スノーフレークのデータクラウドプラットフォームは、現在、世界中の9400社以上の企業・機関のデータ基盤として活用されています。これらは、業界最高レベルのオープン性を提供するLLMを通じて、データを活用できるようになります。
Apache 2.0ライセンスが適用されたオープンソースモデルであるアークティックは、コードテンプレートと共に、推論と学習方法を選択できる柔軟性も提供します。ユーザーは、NVIDIA NIM、NVIDIA TensorRT-LLM、vLLM、Hugging Faceなど、企業が好むフレームワークでアークティックを使用し、カスタマイズできます。スノーフレーク・コーテックス(Snowflake Cortex)では、サーバーレス推論により、すぐにアークティックを使用できます。スノーフレーク・コーテックスは、完全な管理型サービスであり、Hugging Face、Lamini、Microsoft Azure、NVIDIA API Catalog、Perplexity、Together AIなど、さまざまなモデルリストとともに、データクラウドで機械学習とAIソリューションを提供します。Amazon Web Services(AWS)でも、アークティックの使用が今後可能になります。
◇ 優れたリソース効率性と最高レベルの性能
スノーフレークのAI研究チームは、業界最高の研究者とシステムエンジニアで構成されています。アークティックの構築には3か月未満かかりました。モデルの学習には、Amazon Elastic Compute Cloud(Amazon EC2)P5インスタンスが使用され、学習コストは類似モデルの8分の1でした。スノーフレークは、最先端のオープンなエンタープライズ級モデルの学習速度に新たな基準を提示し、最終的にはユーザーが費用効率の高い、カスタマイズされたモデルを最適な規模で生成できるように支援します。
アークティックの差別化されたMoE設計は、企業の要件に合わせて精巧に設計されたデータ組み立てを通じて、学習システムとモデルの性能の両方を向上させます。また、4800億個のパラメータを一度に17個ずつアクティブ化することで、優れたトークン効率と業界最高品質を実現し、最高の結果を提供します。アークティックは、推論または学習中にDBRXよりも約50%、Llama 3 70Bよりも約75%少ないパラメータをアクティブ化することで、大幅な効率改善を実現します。コーディング(HumanEval+、MBPP+)とSQL生成(Spider)においても、DBRX、Mixtral-8x7Bなどの代表的な既存のオープンソースモデルの性能を上回り、一般的な言語理解(MMLU、大規模多言語理解)においても最高レベルの性能を発揮します。
◇ スノーフレークがリードする、すべての人々のためのAIイノベーション
スノーフレークは、企業がそれぞれ独自のデータを利用して、実用的なAI/機械学習アプリの開発に必要なデータ基盤と、最先端のAIビルディングブロックを提供します。顧客がスノーフレーク・コーテックスを通じてアークティックを使用する場合、データクラウドのセキュリティとガバナンスの範囲内で、プロダクションレベルのAIアプリを適切な規模で構築することがさらに容易になります。
アークティックLLMを含むスノーフレーク・アークティック・モデルファミリーには、スノーフレークが最近リリースした最先端のテキスト埋め込みモデルの1つであるアークティック・エンベッド(Arctic embed)も含まれています。この製品は、Apache 2.0ライセンスで、オープンソースコミュニティで無料で使用できます。 5つのモデルで構成されるこの製品ファミリーは、Hugging Faceからすぐに使用でき、スノーフレーク・コーテックスに組み込まれ、プライベートプレビューの形で公開される予定です。類似モデルの約3分の1のサイズであるこの埋め込みモデルは、最高の検索性能を発揮するように最適化されているため、企業が検索強化生成(RAG)またはセマンティック検索サービスの一部として、独自のデータセットをLLMと組み合わせる際に、効果的で経済的なソリューションを提供します。
最近、スノーフレークは、RekaとMistral AIのモデルも追加するなど、顧客がデータクラウドで最高の性能を持つ最新のLLMにアクセスできるように支援しています。また、最近、NVIDIAとの拡張されたパートナーシップを発表し、AIイノベーションを継続的に推進しています。スノーフレークのデータクラウドは、フルスタックのNVIDIAアクセラレーションプラットフォームと組み合わせることで、業界全体でAIの生産性を積極的に活用する、安全で強力なインフラストラクチャとコンピューティング能力を提供しています。スノーフレーク・ベンチャーズ(Snowflake Ventures)は、顧客がそれぞれの企業データでLLMとAIによる価値創造を支援するため、最近、Landing AI、Mistral AI、Rekaなどにも投資しています。