![translation](https://cdn.durumis.com/common/trans.png)
นี่คือโพสต์ที่แปลด้วย AI
สโนว์เฟลก เปิดตัว 'อาร์กติก' LLM ระดับองค์กร ที่มีการเปิดกว้างสูงสุดในอุตสาหกรรม
- ภาษาที่เขียน: ภาษาเกาหลี
- •
-
ประเทศอ้างอิง: ทุกประเทศ
- •
- เทคโนโลยีสารสนเทศ
เลือกภาษา
สรุปโดย AI ของ durumis
- สโนว์เฟลกเปิดตัว 'อาร์กติก' ซึ่งเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) แบบโอเพ่นซอร์ส ที่มีประสิทธิภาพและประสิทธิผลระดับแนวหน้า
- อาร์กติกมีให้ใช้งานเชิงพาณิชย์ฟรีภายใต้ใบอนุญาต Apache 2.0 และรองรับกรอบการทำงานที่หลากหลายเพื่อการปรับแต่ง
- ด้วยอาร์กติก สโนว์เฟลกมอบฐานข้อมูลและบล็อกการสร้าง AI ระดับสูงให้กับธุรกิจเพื่อสร้างแอป AI/แมชชีนเลิร์นนิงที่ใช้งานได้จริงโดยใช้ข้อมูลของตนเอง
เพิ่มแบบจำลองภาษาขนาดใหญ่แบบเปิด (LLM) ที่มีประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกันให้กับตระกูลแบบจำลอง Snowflake Arctic
โอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 ... รองรับเฟรมเวิร์กที่หลากหลายเพื่อความยืดหยุ่นในการปรับแต่ง
Snowflake บริษัทคลาวด์ข้อมูลระดับโลกได้เปิดตัว “Snowflake Arctic” แบบจำลองภาษาขนาดใหญ่ (LLM) ระดับองค์กรที่มีความเปิดกว้างและประสิทธิภาพสูงสุดในระดับอุตสาหกรรม
Arctic ซึ่งออกแบบตามวิธีการผสมผสานผู้เชี่ยวชาญ (MoE) ที่เป็นเอกลักษณ์ของ Snowflake รองรับประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกัน เหมาะสำหรับการประมวลผลข้อกำหนดที่ซับซ้อนขององค์กร รวมถึงการสร้างรหัส SQL, การดำเนินการตามคำสั่ง และการตอบสนองต่อเกณฑ์ที่หลากหลาย
โดยเฉพาะอย่างยิ่ง Arctic มีใบอนุญาต Apache 2.0 ที่สามารถใช้งานเชิงพาณิชย์ได้ฟรี โดย Snowflake เปิดเผยรายละเอียดเกี่ยวกับวิธีการฝึกฝน AI และสร้างมาตรฐานการเปิดใหม่สำหรับเทคโนโลยี AI ระดับองค์กร นอกจากนี้ Arctic LLM ยังเป็นส่วนหนึ่งของตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึงแบบจำลองการฝังตัวข้อความสำหรับการค้นหา
ชรีธาร์ รามาสวามี ซีอีโอของ Snowflake กล่าวว่า “ทีมวิจัยด้าน AI ของ Snowflake ได้นำพาไปสู่การปฏิวัติในแถวหน้าของ AI และนำมาซึ่งจุดเปลี่ยนที่สำคัญสำหรับบริษัท” “Snowflake กำลังขยายขอบเขตของศักยภาพของ AI แบบโอเพนซอร์ส ด้วยการเปิดเผยประสิทธิภาพและประสิทธิผลระดับอุตสาหกรรมต่อชุมชน AI ในรูปแบบโอเพนซอร์ส เราเสริมความแข็งแกร่งให้กับความสามารถด้าน AI ของ Snowflake เพื่อมอบแบบจำลอง AI ที่มีความสามารถและเชื่อถือได้ให้กับลูกค้าของเรา”
◇ Arctic LLM แบบโอเพนซอร์สที่รองรับการทำงานร่วมกันอย่างกว้างขวาง
จากรายงานล่าสุดของ Forrester บริษัทวิจัยตลาด พบว่าผู้มีอำนาจตัดสินใจด้าน AI ขององค์กรทั่วโลกประมาณ 46% “ใช้ LLM แบบโอเพนซอร์สแบบเดิมเพื่อใช้ประโยชน์จาก AI แบบสร้างสรรค์ในฐานะส่วนหนึ่งของกลยุทธ์ AI สำหรับองค์กรของตน” แพลตฟอร์มคลาวด์ข้อมูล Snowflake ปัจจุบันใช้ข้อมูลขององค์กรและหน่วยงานทั่วโลกมากกว่า 9,400 แห่ง ด้วย LLM ที่มีความเปิดกว้างสูงสุดในระดับอุตสาหกรรม พวกเขาสามารถใช้ประโยชน์จากข้อมูลได้
Arctic ซึ่งเป็นแบบจำลองโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 นำเสนอความยืดหยุ่นในการเลือกรูปแบบการอนุมานและการฝึกฝน พร้อมกับเทมเพลตโค้ด ผู้ใช้สามารถใช้และปรับแต่ง Arctic ด้วยเฟรมเวิร์กที่องค์กรชื่นชอบ เช่น NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM, และ Hugging Face ผ่าน Snowflake Cortex สามารถใช้ Arctic ได้ทันทีผ่านการอนุมานแบบเซิร์ฟเวอร์เลส Snowflake Cortex เป็นบริการที่จัดการอย่างสมบูรณ์ที่นำเสนอโซลูชัน AI และการเรียนรู้ของเครื่องบนคลาวด์ข้อมูล พร้อมกับแคตตาล็อกแบบจำลองที่หลากหลาย รวมถึง Hugging Face, Lamini, Microsoft Azure, แคตตาล็อก API ของ NVIDIA, Perplexity, Together AI และอื่นๆ Amazon Web Services (AWS) จะสามารถใช้ Arctic ได้ในอนาคต
◇ ประสิทธิภาพด้านทรัพยากรที่ยอดเยี่ยมและประสิทธิภาพสูงสุดในระดับเดียวกัน
ทีมวิจัยด้าน AI ของ Snowflake ประกอบด้วยนักวิจัยและวิศวกรระบบชั้นนำในอุตสาหกรรม การสร้าง Arctic ใช้เวลาน้อยกว่า 3 เดือน การฝึกฝนแบบจำลองใช้ Amazon Elastic Compute Cloud (Amazon EC2) P5 อินสแตนซ์ และต้นทุนการฝึกฝนน้อยกว่า 1 ใน 8 ของแบบจำลองที่คล้ายกัน Snowflake กำหนดมาตรฐานใหม่สำหรับความเร็วในการฝึกฝนแบบจำลองระดับองค์กร แบบเปิดระดับสูงสุด และในที่สุดจะช่วยให้ผู้ใช้สร้างแบบจำลองที่คุ้มค่าและปรับแต่งได้ตามขนาดที่เหมาะสม
การออกแบบ MoE ที่โดดเด่นของ Arctic ช่วยยกระดับทั้งระบบการฝึกฝนและประสิทธิภาพของแบบจำลองผ่านการรวบรวมข้อมูลที่ออกแบบมาอย่างละเอียด ตามข้อกำหนดขององค์กร นอกจากนี้ยังช่วยให้เกิดประสิทธิภาพด้านโทเค็นที่ยอดเยี่ยมและคุณภาพสูงสุดในระดับอุตสาหกรรม ด้วยการเปิดใช้งานพารามิเตอร์ 480 หมื่นล้านรายการทีละ 17 รายการ ซึ่งส่งผลลัพธ์ที่ดีที่สุด Arctic ลดพารามิเตอร์ที่เปิดใช้งานลงประมาณ 50% ในระหว่างการอนุมานหรือการฝึกฝนเมื่อเทียบกับ DBRX และประมาณ 75% เมื่อเทียบกับ Llama 3 70B เพื่อปรับปรุงประสิทธิภาพอย่างมีนัยสำคัญ Arctic ยังมีประสิทธิภาพเหนือกว่าแบบจำลองโอเพนซอร์สแบบเดิมที่เป็นที่นิยม เช่น DBRX, Mixtral-8x7B ในด้านการเขียนโค้ด (HumanEval+, MBPP+) และการสร้าง SQL (Spider) ในขณะเดียวกันก็แสดงประสิทธิภาพสูงสุดในด้านความเข้าใจภาษาทั่วไป (MMLU, การทำความเข้าใจภาษาหลายงานขนาดใหญ่)
◇ นวัตกรรม AI สำหรับทุกคนนำโดย Snowflake
Snowflake มอบฐานข้อมูลและบล็อกการสร้าง AI ขั้นสูง สำหรับองค์กรในการใช้ประโยชน์จากข้อมูลของตนเองเพื่อสร้างแอพ AI/การเรียนรู้ของเครื่องที่ใช้งานได้จริง เมื่อลูกค้าใช้ Arctic ผ่าน Snowflake Cortex การสร้างแอพ AI ระดับการผลิตที่เหมาะสมในขอบเขตการรักษาความปลอดภัยและการกำกับดูแลของคลาวด์ข้อมูลจะง่ายขึ้น
ตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึง Arctic LLM ยังรวมถึง Arctic embed แบบจำลองการฝังตัวข้อความที่ล้ำสมัยที่ Snowflake เปิดตัวเมื่อเร็วๆ นี้ ผลิตภัณฑ์นี้เป็นโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 และสามารถใช้งานได้ฟรีในชุมชนโอเพนซอร์ส ตระกูลแบบจำลองนี้ประกอบด้วย 5 แบบจำลอง และสามารถใช้งานได้ใน Hugging Face ทันที และจะรวมอยู่ใน Snowflake Cortex ในรูปแบบการดูตัวอย่างแบบส่วนตัว แบบจำลองการฝังตัวนี้มีขนาดประมาณ 1 ใน 3 ของแบบจำลองที่คล้ายกัน ได้รับการปรับแต่งให้นำเสนอประสิทธิภาพการค้นหาที่เหนือกว่า ซึ่งมอบโซลูชันที่มีประสิทธิภาพและคุ้มค่า สำหรับองค์กรในการรวมชุดข้อมูลที่เป็นกรรมสิทธิ์กับ LLM เป็นส่วนหนึ่งของการค้นหาแบบเสริมการสร้าง (RAG) หรือบริการค้นหาแบบอธิบายความหมาย
เมื่อเร็วๆ นี้ Snowflake ได้เพิ่มแบบจำลองจาก Reka และ Mistral AI เพื่อให้ลูกค้าสามารถเข้าถึง LLM ล่าสุดที่มีประสิทธิภาพสูงสุด บนคลาวด์ข้อมูล นอกจากนี้ บริษัทยังได้ประกาศความร่วมมือที่ขยายออกไปกับ NVIDIA เพื่อส่งเสริมนวัตกรรมด้าน AI คลาวด์ข้อมูลของ Snowflake รวมกับแพลตฟอร์มการเร่งความเร็ว NVIDIA แบบเต็มสแต็ก มอบอินฟราสตรัคเจอร์และความสามารถด้านการคำนวณที่ปลอดภัยและทรงพลัง สำหรับการใช้ประโยชน์อย่างเต็มที่จากประสิทธิผลของ AI ทั่วทั้งอุตสาหกรรม Snowflake Ventures ได้ลงทุนใน Landing AI, Mistral AI, และ Reka เพื่อสนับสนุนลูกค้าในการสร้างมูลค่าผ่าน LLM และ AI จากข้อมูลขององค์กร