- 스노우플레이크, 업계 최고 수준의 개방성 갖춘 엔터프라이즈급 LLM ‘아크틱’ 출시 > 뉴스 - 스타트업 커뮤니티 씬디스
- 스노우플레이크 아크틱 모델군에 동급 최고 성능·효율 갖춘 개방형 대규모언어모델 추가아파치 2.0 라이선스 기반 오픈소스… 다양한 프레임워크 지원…, 스타트업에 종사하시는 여러분들의 놀이터 씬디스는 스타트업 커뮤니티 입니다.
เพิ่มแบบจำลองภาษาขนาดใหญ่แบบเปิด (LLM) ที่มีประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกันให้กับตระกูลแบบจำลอง Snowflake Arctic
โอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 ... รองรับเฟรมเวิร์กต่างๆ เพื่อมอบความยืดหยุ่นในการปรับแต่ง
Snowflake (Snowflake) บริษัทคลาวด์ข้อมูลระดับโลก เปิดตัว ‘Snowflake Arctic’ แบบจำลองภาษาขนาดใหญ่ (Large Language Model: LLM) ระดับองค์กรที่มีความเปิดกว้างและประสิทธิภาพสูงสุดในอุตสาหกรรม
Arctic ออกแบบโดยใช้เทคนิคการผสมผสานผู้เชี่ยวชาญ (MoE: Mixture-of-Experts) ที่เป็นเอกลักษณ์ของ Snowflake ซึ่งรองรับประสิทธิภาพและประสิทธิผลสูงสุดในระดับเดียวกัน เหมาะสำหรับการจัดการกับความต้องการที่ซับซ้อนขององค์กร และตรงตามเงื่อนไขที่ดีที่สุดในเกณฑ์ต่างๆ เช่น การสร้างโค้ด SQL และการดำเนินการตามคำสั่ง
โดยเฉพาะอย่างยิ่ง Arctic มีใบอนุญาต Apache 2.0 ซึ่งสามารถใช้งานได้ฟรีแม้กระทั่งเพื่อการพาณิชย์ Snowflake เปิดเผยรายละเอียดเกี่ยวกับวิธีการฝึกฝน AI และกำหนดมาตรฐานเปิดใหม่สำหรับเทคโนโลยี AI ระดับองค์กร นอกจากนี้ Arctic LLM ยังเป็นส่วนหนึ่งของตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึงแบบจำลองการฝังข้อความสำหรับการค้นหาด้วย
Shridhar Ramaswamy ซีอีโอของ Snowflake กล่าวว่า “ทีมวิจัย AI ของ Snowflake นำเสนอสิ่งใหม่ๆ ในด้าน AI และสร้างจุดเปลี่ยนที่สำคัญให้กับบริษัท” “Snowflake กำลังขยายขอบเขตของศักยภาพของ AI แบบโอเพนซอร์สโดยการเปิดเผยประสิทธิภาพและประสิทธิผลสูงสุดในระดับอุตสาหกรรมให้กับชุมชน AI ผ่านโอเพนซอร์ส ความสามารถด้าน AI ของ Snowflake ก็เพิ่มขึ้นเช่นกัน โดยสามารถมอบแบบจำลอง AI ที่มีความสามารถและน่าเชื่อถือให้กับลูกค้า”
◇ Arctic: LLM แบบโอเพนซอร์สที่สนับสนุนการทำงานร่วมกันอย่างกว้างขวาง
จากรายงานล่าสุดของ Forrester บริษัทวิจัยตลาด พบว่าผู้มีอำนาจตัดสินใจด้าน AI ในองค์กรทั่วโลกประมาณ 46% ตอบว่า “พวกเขาใช้ LLM แบบโอเพนซอร์สที่มีอยู่เพื่อนำ generative AI มาใช้ในองค์กรของตนเองในฐานะส่วนหนึ่งของกลยุทธ์ AI” แพลตฟอร์มคลาวด์ข้อมูลของ Snowflake ปัจจุบันมีการใช้งานโดยองค์กรและหน่วยงานต่างๆ ทั่วโลกกว่า 9,400 แห่ง ซึ่งสามารถใช้ประโยชน์จากข้อมูลผ่าน LLM ที่มีความเปิดกว้างสูงสุดในอุตสาหกรรม
Arctic ซึ่งเป็นแบบจำลองโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 นั้นมาพร้อมกับเทมเพลตโค้ด และมอบความยืดหยุ่นในการเลือกวิธีการอนุมานและการฝึกฝน ผู้ใช้สามารถใช้และปรับแต่ง Arctic ด้วยเฟรมเวิร์กที่องค์กรนิยมใช้ เช่น NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM และ Hugging Face นอกจากนี้ยังสามารถใช้ Arctic ได้ทันทีผ่านการอนุมานแบบ Serverless ใน Snowflake Cortex Snowflake Cortex เป็นบริการที่จัดการแบบเต็มรูปแบบ ซึ่งให้บริการโซลูชัน AI และแมชชีนเลิร์นนิงบนคลาวด์ข้อมูล พร้อมกับรายการแบบจำลองต่างๆ เช่น Hugging Face, Lamini, Microsoft Azure, แคตตาล็อก API ของ NVIDIA, Perplexity และ Together AI โดย Arctic จะพร้อมให้ใช้งานบน Amazon Web Services (AWS) ในอนาคต
◇ ประสิทธิภาพด้านทรัพยากรที่ยอดเยี่ยมและประสิทธิภาพสูงสุด
ทีมวิจัย AI ของ Snowflake ประกอบด้วยนักวิจัยและวิศวกรระบบชั้นนำของอุตสาหกรรม การสร้าง Arctic ใช้เวลาไม่ถึง 3 เดือน การฝึกฝนแบบจำลองใช้ Amazon Elastic Compute Cloud (Amazon EC2) P5 instance และค่าใช้จ่ายในการฝึกฝนต่ำกว่าแบบจำลองที่คล้ายกันถึง 8 เท่า Snowflake กำหนดมาตรฐานใหม่สำหรับความเร็วในการฝึกฝนแบบจำลองระดับองค์กรแบบเปิดที่ทันสมัย และในที่สุดก็จะช่วยให้ผู้ใช้สามารถสร้างแบบจำลองที่ปรับแต่งได้และคุ้มค่าในระดับที่เหมาะสม
การออกแบบ MoE ที่แตกต่างของ Arctic ช่วยปรับปรุงทั้งระบบการฝึกฝนและประสิทธิภาพของแบบจำลองผ่านการรวบรวมข้อมูลที่ออกแบบมาอย่างละเอียดตามความต้องการขององค์กร นอกจากนี้ยังเปิดใช้งานพารามิเตอร์ 480,000 ล้านตัวพร้อมกัน 17 ตัวในแต่ละครั้ง ส่งผลให้เกิดประสิทธิภาพโทเค็นที่ยอดเยี่ยมและคุณภาพที่ดีที่สุดในอุตสาหกรรม เพื่อให้ได้ผลลัพธ์ที่ดีที่สุด Arctic เปิดใช้งานพารามิเตอร์น้อยกว่า DBRX ประมาณ 50% และ Llama 3 70B ประมาณ 75% ในระหว่างการอนุมานหรือการฝึกฝนเพื่อปรับปรุงประสิทธิภาพอย่างมาก นอกจากนี้ยังเหนือกว่าแบบจำลองโอเพนซอร์สที่มีอยู่ เช่น DBRX และ Mixtral-8x7B ในด้านการเขียนโค้ด (HumanEval+, MBPP+) และการสร้าง SQL (Spider) พร้อมกันนั้นยังแสดงประสิทธิภาพสูงสุดในด้านความเข้าใจภาษาทั่วไป (MMLU, Large-scale Multitask Language Understanding)
◇ นวัตกรรม AI สำหรับทุกคนโดย Snowflake
Snowflake มอบพื้นฐานข้อมูลและบล็อกการสร้าง AI ที่ทันสมัยที่จำเป็นสำหรับองค์กรในการสร้างแอปพลิเคชัน AI/แมชชีนเลิร์นนิงที่ใช้งานได้จริงโดยใช้ข้อมูลของตนเอง เมื่อลูกค้าใช้ Arctic ผ่าน Snowflake Cortex จะทำให้การสร้างแอปพลิเคชัน AI ระดับการผลิตในระดับที่เหมาะสมภายในขอบเขตความปลอดภัยและการกำกับดูแลของคลาวด์ข้อมูลง่ายขึ้น
ตระกูลแบบจำลอง Snowflake Arctic ซึ่งรวมถึง Arctic LLM ยังมี Arctic embed ซึ่งเป็นหนึ่งในแบบจำลองการฝังข้อความที่ทันสมัยที่ Snowflake เปิดตัวเมื่อเร็วๆ นี้ ผลิตภัณฑ์นี้เป็นโอเพนซอร์สภายใต้ใบอนุญาต Apache 2.0 และสามารถใช้งานได้ฟรีในชุมชนโอเพนซอร์ส ชุดแบบจำลอง 5 แบบนี้สามารถใช้งานได้ทันทีบน Hugging Face และจะเปิดตัวในรูปแบบการแสดงตัวอย่างแบบส่วนตัวใน Snowflake Cortex แบบจำลองการฝังนี้มีขนาดเล็กกว่าแบบจำลองที่คล้ายกันประมาณ 3 เท่า และได้รับการปรับให้เหมาะสมเพื่อให้ได้ประสิทธิภาพการค้นหาที่ดีที่สุด ทำให้เป็นโซลูชันที่มีประสิทธิภาพและประหยัดสำหรับองค์กรที่ต้องการผสานรวมชุดข้อมูลเฉพาะของตนกับ LLM ในฐานะส่วนหนึ่งของบริการการค้นหาเชิงความหมายหรือการสร้างแบบเสริมการค้นหา (RAG)
เมื่อเร็วๆ นี้ Snowflake ได้เพิ่มแบบจำลองจาก Reka และ Mistral AI เพื่อให้ลูกค้าสามารถเข้าถึง LLM ที่ทันสมัยและมีประสิทธิภาพสูงสุดบนคลาวด์ข้อมูล นอกจากนี้ยังได้ประกาศความร่วมมือที่ขยายออกไปกับ NVIDIA เพื่อขับเคลื่อนนวัตกรรม AI ต่อไป คลาวด์ข้อมูลของ Snowflake เมื่อรวมกับแพลตฟอร์ม NVIDIA ที่เร่งความเร็วแบบเต็มรูปแบบ จึงมอบโครงสร้างพื้นฐานและความสามารถในการประมวลผลที่ปลอดภัยและทรงพลังเพื่อใช้ประโยชน์จากประสิทธิภาพของ AI ในทุกอุตสาหกรรม Snowflake Ventures ได้ลงทุนใน Landing AI, Mistral AI และ Reka เพื่อสนับสนุนลูกค้าในการสร้างมูลค่าจาก LLM และ AI จากข้อมูลขององค์กร
ความคิดเห็น0