durumis AI 总结的文章
- 首爾科技大學研究團隊在HuggingFace上公開了專注於韓語的視覺語言模型「Bllossom-V 3.1」,成為首個支援韓語的LMM。
- 該模型能夠同時處理文字和影像,支援韓語和英語,並基於科學技術資訊通信部計畫所建構的高品質數據開發。
- 特別是為了提升韓語性能,使用了韓語-英語平行視覺語料庫數據,並透過分層連接方法實現了穩定的雙語支援。
AI 翻译的文章。
durumis AI 总结的文章
首爾科技大學(以下簡稱首爾科大)多模態語言處理實驗室(MLP)林京泰教授團隊透過 HuggingFace 排行榜,於 9 月 4 日公開了韓國首個專注於韓語的視覺語言模型「Bllossom-V 3.1」,並宣布此消息。
該模型以首爾科大與 TeddySum 共同建構的語言模型「Bllossom」為基礎,經過額外的影像處理訓練過程開發而成。它支援韓語和英語兩種語言,不僅能處理文字,還能處理影像。此次 Bllossom-V 3.1 的公開,在 HuggingFace 上展示了首個韓國專注於韓語的 LMM,具有重大意義。
開發韓國首個專注於韓語的 LMM,Bllossom-V 3.1 的核心數據來自科學技術信息通信部主辦、韓國智慧信息社會振興院(NIA)負責的「文件生成與信息檢索數據」項目。該項目由多模態數據專業企業 Media Group Saram & Sup(以下簡稱 Saram & Sup)擔任總負責,並與 EuclidSoft 合作,建構了專業且高品質的數據。
此外,Bllossom-V 3.1 採用了首爾科大與 TeddySum 共同開發的層級對齊(Layer Aligning)方法,並完成了大量韓語和英語的預訓練。因此,它可以穩定地支援這兩種語言。此外,研究團隊還使用了自行建構的 MVIF 韓英雙語視覺語料庫數據,在不降低英語性能的情況下,大幅提升了韓語性能,獲得了高度評價。在視覺語言模型的預訓練過程中,所需的龐大計算資源得到了人工智能產業融合事業團(AICA)的支持。
負責模型學習數據建構的 Saram & Sup 代表韓允基表示:「透過建構高品質數據,為韓國首個韓英視覺語言公開模型的誕生做出貢獻,感到非常自豪。」並補充:「未來,我們將繼續致力於開發可應用於各種用途的公開數據。」
Bllossom-V 3.1 模型可在以下網址找到。
Media Group Saram & Sup 介紹
Media Group Saram & Sup 由一群擁有作者風格的創作者共同創立,在基於視覺數據的數位化、人工智能(AI)、大數據、自動駕駛、虛擬現實(VR)等領域擁有傑出的業績。基於此,公司積極開展多元化業務擴展,包括自有技術和服務開發等,並推進全球市場拓展。以數據為媒介,成為以人為中心的文化、以人為中心的企業,與大家共同成長,創造幸福,並朝著這個目標發展。
Bllossom-V 3.1 模型:https://huggingface.co/Bllossom/llama-3.1-Korean-B...
網站:https://humanf.co.kr/
聯絡方式
Media Group Saram & Sup
DX 運營團隊
李恩實經理
02-830-8583