![translation](https://cdn.durumis.com/common/trans.png)
Ini adalah postingan yang diterjemahkan oleh AI.
Snowflake Meluncurkan 'Arctic', LLM Tingkat Perusahaan dengan Terbuka Terbaik di Industri
- Bahasa penulisan: Bahasa Korea
- •
-
Negara referensi: Semua negara
- •
- TI
Pilih Bahasa
Teks yang dirangkum oleh AI durumis
- Snowflake telah meluncurkan 'Arctic', model bahasa besar (LLM) sumber terbuka dengan kinerja dan efisiensi terbaik di kelasnya.
- Arctic tersedia untuk penggunaan komersial gratis di bawah lisensi Apache 2.0, dan dapat disesuaikan dengan dukungan untuk berbagai kerangka kerja.
- Melalui Arctic, Snowflake memberi perusahaan dasar data dan blok bangunan AI canggih yang diperlukan untuk membangun aplikasi AI/machine learning praktis yang memanfaatkan data mereka sendiri.
Model bahasa besar terbuka dengan performa dan efisiensi terbaik di kelasnya ditambahkan ke keluarga Snowflake Arctic
Open source berdasarkan lisensi Apache 2.0… Memberikan fleksibilitas yang dapat disesuaikan dengan berbagai kerangka kerja
Snowflake, perusahaan data cloud global, telah meluncurkan 'Snowflake Arctic', sebuah model bahasa besar (LLM) kelas perusahaan dengan keterbukaan dan performa terbaik di kelasnya.
Didesain dengan pendekatan campuran pakar (MoE·Mixture-of-Experts) yang unik milik Snowflake, Arctic mendukung performa dan produktivitas terbaik di kelasnya. Dioptimalkan untuk menangani kebutuhan bisnis yang kompleks, memenuhi syarat terbaik dalam berbagai kriteria seperti pembuatan kode SQL, eksekusi perintah.
Terutama, Arctic dilisensikan di bawah Lisensi Apache 2.0, yang memungkinkan penggunaan komersial secara gratis, dan Snowflake mengungkapkan detail tentang metode pembelajaran AI, menetapkan standar terbuka baru untuk teknologi AI kelas perusahaan. Selain itu, LLM Arctic adalah bagian dari keluarga model Snowflake Arctic, yang mencakup model embedding teks untuk penggunaan pencarian.
Sridhar Ramaswamy, CEO Snowflake, mengatakan, “Tim riset AI Snowflake telah memimpin inovasi di garis depan AI, menandai titik balik penting bagi perusahaan kami.” “Snowflake memperluas ruang lingkup kemungkinan AI open source dengan membuat performa dan efisiensi terbaik di kelasnya tersedia secara terbuka untuk komunitas AI. Kami juga meningkatkan kemampuan AI Snowflake untuk memberikan model AI yang kompeten dan dapat diandalkan kepada pelanggan kami.”
◇ Arctic, LLM open source yang mendukung kolaborasi yang luas
Menurut laporan terbaru yang diterbitkan oleh firma riset pasar Forrester, sekitar 46% dari pengambil keputusan AI di perusahaan global mengatakan bahwa mereka menggunakan LLM open source yang ada sebagai bagian dari strategi AI mereka untuk mengadopsi AI generatif di organisasi mereka. Platform data cloud Snowflake saat ini digunakan oleh lebih dari 9.400 perusahaan dan organisasi di seluruh dunia. Mereka dapat memanfaatkan data mereka dengan LLM yang menyediakan tingkat keterbukaan tertinggi di industri.
Arctic, model open source yang dilisensikan di bawah Lisensi Apache 2.0, juga menyediakan fleksibilitas untuk memilih cara inferensi dan pembelajaran, bersama dengan template kode. Pengguna dapat menggunakan dan menyesuaikan Arctic dengan kerangka kerja yang disukai perusahaan seperti NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM, Hugging Face. Arctic juga dapat langsung digunakan melalui inferensi serverless di Snowflake Cortex. Snowflake Cortex adalah layanan yang dikelola sepenuhnya yang menyediakan solusi pembelajaran mesin dan AI di data cloud, bersama dengan katalog model yang luas dari Hugging Face, Lamini, Microsoft Azure, katalog API NVIDIA, Perplexity, Together AI, dan lainnya. Penggunaan Arctic juga akan tersedia di Amazon Web Services (AWS).
◇ Efisiensi sumber daya yang unggul dan performa terbaik di kelasnya
Tim riset AI Snowflake terdiri dari peneliti dan insinyur sistem terkemuka di industri. Pembuatan Arctic memakan waktu kurang dari tiga bulan. Pelatihan model memanfaatkan instance Amazon Elastic Compute Cloud (Amazon EC2) P5, dan biaya pelatihan hanya seperdelapan dari model serupa. Snowflake menetapkan standar baru untuk kecepatan pelatihan model perusahaan terbuka canggih, pada akhirnya memungkinkan pengguna untuk membuat model yang hemat biaya dan dikustomisasi dengan skala optimal.
Desain MoE yang dibedakan dari Arctic meningkatkan baik sistem pembelajaran maupun performa model melalui kumpulan data yang dirancang secara halus sesuai dengan kebutuhan perusahaan. Selain itu, dengan mengaktifkan 480 miliar parameter secara bersamaan, 17 sekaligus, mencapai efisiensi token yang luar biasa dan kualitas terbaik di kelasnya, memberikan hasil terbaik. Untuk peningkatan efisiensi yang signifikan, Arctic mengaktifkan sekitar 50% lebih sedikit parameter daripada DBRX selama inferensi atau pembelajaran, dan sekitar 75% lebih sedikit parameter daripada Llama 3 70B. Arctic juga melampaui performa model open source populer lainnya seperti DBRX dan Mixtral-8x7B dalam hal pengkodean (HumanEval+, MBPP+) dan pembuatan SQL (Spider), sambil menampilkan performa kelas atas dalam pemahaman bahasa umum (MMLU, Pemahaman Bahasa Multi-tugas Berskala Besar).
◇ Inovasi AI untuk semua yang dipimpin oleh Snowflake
Snowflake menyediakan dasar data dan blok bangunan AI canggih yang diperlukan untuk membuat aplikasi AI/pembelajaran mesin yang praktis menggunakan data mereka sendiri. Ketika pelanggan menggunakan Arctic melalui Snowflake Cortex, menciptakan aplikasi AI produksi pada skala yang tepat di dalam ruang lingkup keamanan dan tata kelola data cloud menjadi lebih mudah.
Keluarga model Snowflake Arctic, yang meliputi LLM Arctic, juga mencakup Arctic embed, salah satu model embedding teks canggih yang baru-baru ini diluncurkan oleh Snowflake. Produk ini open source di bawah Lisensi Apache 2.0 dan dapat digunakan secara gratis oleh komunitas open source. Terdiri dari lima model, produk ini tersedia di Hugging Face dan akan diluncurkan dalam pratinjau pribadi di Snowflake Cortex. Model embedding ini, yang sekitar sepertiga ukuran model serupa, dioptimalkan untuk performa pencarian terbaik, memberikan solusi yang efisien dan ekonomis bagi perusahaan untuk menggabungkan set data unik mereka dengan LLM sebagai bagian dari layanan pencarian yang diperkuat generasi (RAG) atau pencarian semantik.
Baru-baru ini, Snowflake juga menambahkan model dari Reka dan Mistral AI, memberikan pelanggan akses ke LLM terbaru dengan performa tertinggi di data cloud. Selain itu, Snowflake baru-baru ini mengumumkan kemitraan yang diperluas dengan NVIDIA untuk terus mendorong inovasi AI. Data cloud Snowflake, digabungkan dengan platform akselerasi NVIDIA full-stack, menyediakan infrastruktur dan kemampuan komputasi yang aman dan kuat untuk memanfaatkan produktivitas AI secara penuh di seluruh industri. Snowflake Ventures baru-baru ini menginvestasikan di Landing AI, Mistral AI, dan Reka, untuk mendukung pelanggan dalam memanfaatkan nilai LLM dan AI dari data perusahaan mereka.