스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake เปิดตัว LLM ระดับองค์กร Arctic ที่มีระดับความเปิดกว้างสูงสุดในอุตสาหกรรม

สร้าง: 2024-04-25

สร้าง: 2024-04-25 11:41

เพิ่มแบบจำลองภาษาขนาดใหญ่แบบเปิด (LLM) ที่มีประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกันให้กับตระกูลแบบจำลอง Snowflake Arctic

โอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 ... รองรับเฟรมเวิร์กต่างๆ เพื่อมอบความยืดหยุ่นในการปรับแต่ง

Snowflake (Snowflake) บริษัทคลาวด์ข้อมูลระดับโลก เปิดตัว ‘Snowflake Arctic’ แบบจำลองภาษาขนาดใหญ่ (Large Language Model: LLM) ระดับองค์กรที่มีความเปิดกว้างและประสิทธิภาพสูงสุดในอุตสาหกรรม

Arctic ออกแบบโดยใช้เทคนิคการผสมผสานผู้เชี่ยวชาญ (MoE: Mixture-of-Experts) ที่เป็นเอกลักษณ์ของ Snowflake ซึ่งรองรับประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกัน เหมาะสำหรับการจัดการกับความต้องการที่ซับซ้อนขององค์กร และตรงตามเงื่อนไขที่ดีที่สุดในเกณฑ์ต่างๆ เช่น การสร้างโค้ด SQL และการดำเนินการตามคำสั่ง

โดยเฉพาะอย่างยิ่ง Arctic มีใบอนุญาต Apache 2.0 ซึ่งสามารถใช้งานได้ฟรีแม้กระทั่งเพื่อการพาณิชย์ Snowflake เปิดเผยรายละเอียดเกี่ยวกับวิธีการฝึกฝน AI และกำหนดมาตรฐานเปิดใหม่สำหรับเทคโนโลยี AI ระดับองค์กร นอกจากนี้ Arctic LLM ยังเป็นส่วนหนึ่งของตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึงแบบจำลองการฝังข้อความสำหรับการค้นหาด้วย

Shridhar Ramaswamy ซีอีโอของ Snowflake กล่าวว่า “ทีมวิจัย AI ของ Snowflake นำเสนอสิ่งใหม่ๆ ในด้าน AI และสร้างจุดเปลี่ยนที่สำคัญให้กับบริษัท” “Snowflake กำลังขยายขอบเขตของศักยภาพของ AI แบบโอเพนซอร์สโดยการเปิดเผยประสิทธิภาพและประสิทธิผลสูงสุดในระดับอุตสาหกรรมให้กับชุมชน AI ผ่านโอเพนซอร์ส ความสามารถด้าน AI ของ Snowflake ก็เพิ่มขึ้นเช่นกัน โดยสามารถมอบแบบจำลอง AI ที่มีความสามารถและน่าเชื่อถือให้กับลูกค้า”

◇ Arctic: LLM แบบโอเพนซอร์สที่สนับสนุนการทำงานร่วมกันอย่างกว้างขวาง

จากรายงานล่าสุดของ Forrester บริษัทวิจัยตลาด พบว่าผู้มีอำนาจตัดสินใจด้าน AI ในองค์กรทั่วโลกประมาณ 46% ตอบว่า “พวกเขาใช้ LLM แบบโอเพนซอร์สที่มีอยู่เพื่อนำ generative AI มาใช้ในองค์กรของตนเองในฐานะส่วนหนึ่งของกลยุทธ์ AI” แพลตฟอร์มคลาวด์ข้อมูลของ Snowflake ปัจจุบันมีการใช้งานโดยองค์กรและหน่วยงานต่างๆ ทั่วโลกกว่า 9,400 แห่ง ซึ่งสามารถใช้ประโยชน์จากข้อมูลผ่าน LLM ที่มีความเปิดกว้างสูงสุดในอุตสาหกรรม

Arctic ซึ่งเป็นแบบจำลองโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 นั้นมาพร้อมกับเทมเพลตโค้ด และมอบความยืดหยุ่นในการเลือกวิธีการอนุมานและการฝึกฝน ผู้ใช้สามารถใช้และปรับแต่ง Arctic ด้วยเฟรมเวิร์กที่องค์กรนิยมใช้ เช่น NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM และ Hugging Face นอกจากนี้ยังสามารถใช้ Arctic ได้ทันทีผ่านการอนุมานแบบ Serverless ใน Snowflake Cortex Snowflake Cortex เป็นบริการที่จัดการแบบเต็มรูปแบบ ซึ่งให้บริการโซลูชัน AI และแมชชีนเลิร์นนิงบนคลาวด์ข้อมูล พร้อมกับรายการแบบจำลองต่างๆ เช่น Hugging Face, Lamini, Microsoft Azure, แคตตาล็อก API ของ NVIDIA, Perplexity และ Together AI โดย Arctic จะพร้อมให้ใช้งานบน Amazon Web Services (AWS) ในอนาคต

◇ ประสิทธิภาพด้านทรัพยากรที่ยอดเยี่ยมและประสิทธิภาพสูงสุด

ทีมวิจัย AI ของ Snowflake ประกอบด้วยนักวิจัยและวิศวกรระบบชั้นนำของอุตสาหกรรม การสร้าง Arctic ใช้เวลาไม่ถึง 3 เดือน การฝึกฝนแบบจำลองใช้ Amazon Elastic Compute Cloud (Amazon EC2) P5 instance และค่าใช้จ่ายในการฝึกฝนต่ำกว่าแบบจำลองที่คล้ายกันถึง 8 เท่า Snowflake กำหนดมาตรฐานใหม่สำหรับความเร็วในการฝึกฝนแบบจำลองระดับองค์กรแบบเปิดที่ทันสมัย และในที่สุดก็จะช่วยให้ผู้ใช้สามารถสร้างแบบจำลองที่ปรับแต่งได้และคุ้มค่าในระดับที่เหมาะสม

การออกแบบ MoE ที่แตกต่างของ Arctic ช่วยปรับปรุงทั้งระบบการฝึกฝนและประสิทธิภาพของแบบจำลองผ่านการรวบรวมข้อมูลที่ออกแบบมาอย่างละเอียดตามความต้องการขององค์กร นอกจากนี้ยังเปิดใช้งานพารามิเตอร์ 480,000 ล้านตัวพร้อมกัน 17 ตัวในแต่ละครั้ง ส่งผลให้เกิดประสิทธิภาพโทเค็นที่ยอดเยี่ยมและคุณภาพที่ดีที่สุดในอุตสาหกรรม เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด Arctic เปิดใช้งานพารามิเตอร์น้อยกว่า DBRX ประมาณ 50% และ Llama 3 70B ประมาณ 75% ในระหว่างการอนุมานหรือการฝึกฝนเพื่อปรับปรุงประสิทธิภาพอย่างมาก นอกจากนี้ยังเหนือกว่าแบบจำลองโอเพนซอร์สที่มีอยู่ เช่น DBRX และ Mixtral-8x7B ในด้านการเขียนโค้ด (HumanEval+, MBPP+) และการสร้าง SQL (Spider) พร้อมกันนั้นยังแสดงประสิทธิภาพสูงสุดในด้านความเข้าใจภาษาทั่วไป (MMLU, Large-scale Multitask Language Understanding)

◇ นวัตกรรม AI สำหรับทุกคนโดย Snowflake

Snowflake มอบพื้นฐานข้อมูลและบล็อกการสร้าง AI ที่ทันสมัยที่จำเป็นสำหรับองค์กรในการสร้างแอปพลิเคชัน AI/แมชชีนเลิร์นนิงที่ใช้งานได้จริงโดยใช้ข้อมูลของตนเอง เมื่อลูกค้าใช้ Arctic ผ่าน Snowflake Cortex จะทำให้การสร้างแอปพลิเคชัน AI ระดับการผลิตในระดับที่เหมาะสมภายในขอบเขตความปลอดภัยและการกำกับดูแลของคลาวด์ข้อมูลง่ายขึ้น

ตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึง Arctic LLM ยังมี Arctic embed ซึ่งเป็นหนึ่งในแบบจำลองการฝังข้อความที่ทันสมัยที่ Snowflake เปิดตัวเมื่อเร็วๆ นี้ ผลิตภัณฑ์นี้เป็นโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 และสามารถใช้งานได้ฟรีในชุมชนโอเพนซอร์ส ชุดแบบจำลอง 5 แบบนี้สามารถใช้งานได้ทันทีบน Hugging Face และจะเปิดตัวในรูปแบบการแสดงตัวอย่างแบบส่วนตัวใน Snowflake Cortex แบบจำลองการฝังนี้มีขนาดเล็กกว่าแบบจำลองที่คล้ายกันประมาณ 3 เท่า และได้รับการปรับให้เหมาะสมเพื่อให้ได้ประสิทธิภาพการค้นหาที่ดีที่สุด ทำให้เป็นโซลูชันที่มีประสิทธิภาพและประหยัดสำหรับองค์กรที่ต้องการผสานรวมชุดข้อมูลเฉพาะของตนกับ LLM ในฐานะส่วนหนึ่งของบริการการค้นหาเชิงความหมายหรือการสร้างแบบเสริมการค้นหา (RAG)

เมื่อเร็วๆ นี้ Snowflake ได้เพิ่มแบบจำลองจาก Reka และ Mistral AI เพื่อให้ลูกค้าสามารถเข้าถึง LLM ที่ทันสมัยและมีประสิทธิภาพสูงสุดบนคลาวด์ข้อมูล นอกจากนี้ยังได้ประกาศความร่วมมือที่ขยายออกไปกับ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ต่อไป คลาวด์ข้อมูลของ Snowflake เมื่อรวมกับแพลตฟอร์ม NVIDIA ที่เร่งความเร็วแบบเต็มรูปแบบ จึงมอบโครงสร้างพื้นฐานและความสามารถในการประมวลผลที่ปลอดภัยและทรงพลังเพื่อใช้ประโยชน์จากประสิทธิภาพของ AI ในทุกอุตสาหกรรม Snowflake Ventures ได้ลงทุนใน Landing AI, Mistral AI และ Reka เพื่อสนับสนุนลูกค้าในการสร้างมูลค่าจาก LLM และ AI จากข้อมูลขององค์กร



ความคิดเห็น0

สร้าง AI Full Stack ด้วยโอเพนซอร์สบทความนี้จะแนะนำเครื่องมือต่างๆ สำหรับสร้าง AI 풀สแตก (Full Stack) ด้วยโอเพนซอร์ส รวมถึง LLM, เครื่องมืออนุมานและให้บริการ, เฟรมเวิร์ก และโซลูชันการตรวจสอบต่างๆ เรียนรู้การพัฒนาแอปพลิเคชัน AI โดยใช้ LangChain, LlamaIndex และอื่นๆ
RevFactory
RevFactory
RevFactory
RevFactory

February 5, 2024

AI หลายภาษาฟรี - เอไอดอท (A.) เวอร์ชันพีซี - ใช้โมเดล AI หลากหลายได้ในที่เดียวเอไอดอท เวอร์ชันพีซีจาก SK Telecom เปิดตัวแล้ว บริการตัวแทน LLM หลายภาษาที่สามารถใช้งานและเปรียบเทียบโมเดล AI ต่างๆ ได้ฟรี
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story
Curator Danbi - Creator Story

November 26, 2024

Apple เปิดตัว OpenELM / MS เปิดตัว Phi-3 / Meta เปิดตัว Llama 3Apple, Microsoft และ Meta กำลังส่งผลกระทบอย่างมากต่อวงการ AI ด้วยการเปิดตัวแบบจำลองภาษาขนาดใหญ่รุ่นใหม่ การลดขนาดของโมเดล การปรับแต่งข้อมูล เป็นเพียงส่วนหนึ่งของความพยายามที่เกิดขึ้น
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

April 27, 2024

สร้างพลังบล็อกของชเวบงฮยอก – วิเคราะห์คีย์เวิร์ดการค้นหาที่พุ่งสูงขึ้น ทะลุเพดาน พุ่งขึ้น พุ่งลง การแสดงผลบนอันดับต้นๆชเวบงฮยอก นักข่าวแบ่งปันผลการวิเคราะห์คีย์เวิร์ดบล็อกประจำเดือนกันยายน พร้อมแนะนำเทรนด์ล่าสุด เช่น ไอโฟน 16 ปัญญาประดิษฐ์ และเครื่องมือ No-Code
NEWS FDN (다큐)
NEWS FDN (다큐)
NEWS FDN (다큐)
NEWS FDN (다큐)

September 18, 2024

ข้อขัดแย้งของแบบจำลอง AI ชั้นนำ: ความโปร่งใสท่ามกลางความกังวลเกี่ยวกับการขาดความโปร่งใสของแบบจำลอง AI ที่ล้ำสมัย การเพิ่มการเข้าถึงข้อมูลเพื่อให้มั่นใจในความสามารถในการทำซ้ำมีความสำคัญมากขึ้น โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการผูกขาดในอุตสาหกรรม AI และอิทธิพลต่อสังคม ความโปร่งใสจึงเป็นสิ่งจำเป็น
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

May 14, 2024

LLM (แบบจำลองภาษาขนาดใหญ่) คืออะไร?LLM ย่อมาจากแบบจำลองภาษาขนาดใหญ่ ซึ่งเป็นเทคโนโลยีปัญญาประดิษฐ์ที่เรียนรู้จากข้อมูลข้อความจำนวนมหาศาล เพื่อทำความเข้าใจและสร้างภาษาที่คล้ายคลึงกับมนุษย์
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

April 1, 2024