Tim peneliti dari Universitas Sains dan Teknologi Seoul telah merilis model bahasa visual-bahasa (LMM) khusus Korea 'Bllossom-V 3.1' di HuggingFace, menandai model LMM Korea pertama.
Model yang mampu memproses teks dan gambar secara bersamaan ini mendukung bahasa Korea dan Inggris, serta dikembangkan berdasarkan data berkualitas tinggi yang dibangun melalui proyek Kementerian Sains dan Teknologi Informasi dan Komunikasi.
Khususnya, untuk meningkatkan kinerja bahasa Korea, model ini memanfaatkan data paralel bahasa Korea-Inggris visual, dan penerapan metode koneksi hierarkis memungkinkan dukungan stabil untuk dua bahasa tersebut.
Universitas Sains dan Teknologi Seoul (selanjutnya disebut SeoulTech) Laboratorium Pemrosesan Bahasa Multimodal (MLP) yang dipimpin oleh Profesor Im Kyung-tae mengumumkan bahwa mereka telah merilis 'Bllossom-V 3.1', model bahasa visual khusus Korea pertama, melalui HuggingFace Leaderboard pada tanggal 4 September lalu.
Model ini adalah model bahasa visual yang dikembangkan berdasarkan 'Bllossom', model bahasa yang dibangun bersama oleh SeoulTech dan TeddySum, melalui proses pelatihan tambahan untuk pemrosesan gambar. Model ini mendukung dua bahasa, yaitu Korea dan Inggris, dan dapat memproses tidak hanya teks tetapi juga gambar. Perilisan Bllossom-V 3.1 ini memiliki makna yang besar karena merupakan LMM khusus Korea pertama yang diperkenalkan di HuggingFace.
Data inti dalam pengembangan Bllossom-V 3.1, LMM khusus Korea pertama, dihasilkan melalui proyek 'Data Pembuatan Dokumen dan Pencarian Informasi' yang diselenggarakan oleh Kementerian Sains dan Teknologi Informasi dan Komunikasi dan dikelola oleh Korean Intelligent Information Society Agency (NIA). Proyek ini dipimpin oleh perusahaan data multimodal Media Group Saramgwasup (selanjutnya disebut Saramgwasup) dan melibatkan EuclidSoft untuk membangun data berkualitas tinggi yang profesional.
Selain itu, Bllossom-V 3.1 adalah model yang telah menyelesaikan pembelajaran pra-pelatihan dalam bahasa Korea dan Inggris dalam jumlah besar dengan menerapkan metode Penyelarasan Lapisan (Layer Aligning) yang dikembangkan bersama oleh SeoulTech dan TeddySum, sehingga mampu mendukung kedua bahasa dengan stabil. Lebih lanjut, model ini telah menerapkan data corpus visual paralel Korea-Inggris MVIF yang dibangun sendiri oleh tim peneliti, sehingga mampu meningkatkan kinerja bahasa Korea secara signifikan tanpa mengurangi kinerja bahasa Inggris. Untuk pembelajaran pra-pelatihan model bahasa visual, sumber daya komputasi yang melimpah dibutuhkan, dan hal ini didukung oleh Artificial Intelligence Industry Convergence Business Unit (AICA).
Han Yun-gi, CEO Saramgwasup, yang bertanggung jawab atas pengelolaan pembangunan data untuk pelatihan model, menyatakan, “Kami merasa sangat bangga telah berkontribusi dalam pembuatan model bahasa visual terbuka Korea-Inggris pertama dengan membangun data berkualitas tinggi. Ke depannya, kami akan terus berkontribusi dalam pembuatan data terbuka yang dapat digunakan untuk berbagai keperluan.”
Model Bllossom-V 3.1 dapat diakses di sini.
Perkenalan Media Group Saramgwasup
Media Group Saramgwasup, yang berawal dari kumpulan kreator dengan kepribadian artistik, memiliki rekam jejak yang luar biasa di bidang digitalisasi berbasis Visual Data, kecerdasan buatan (AI), big data, kendaraan otonom, dan realitas virtual (VR). Berdasarkan hal tersebut, perusahaan ini terus memperluas bisnisnya melalui pengembangan teknologi dan layanan sendiri, serta berupaya untuk memasuki pasar global. Perusahaan ini terus tumbuh menjadi perusahaan yang berpusat pada manusia, baik dalam budaya maupun bisnis, untuk mencapai pertumbuhan dan kebahagiaan bersama melalui data sebagai media penghubung.
Model Bllossom-V 3.1: https://huggingface.co/Bllossom/llama-3.1-Korean-B...
Situs web: https://humanf.co.kr/
Kontak Media Group Saramgwasup Tim Operasi DX Manajer Lee Eun-sil 02-830-8583