스타트업 커뮤니티 씬디스 (SeenThis.kr)

Model Bahasa LMM Khusus Bahasa Korea Pertama yang Memproses Teks dan Gambar ‘Bllossom-V 3.1’ Dirilis

  • Bahasa Penulisan: Bahasa Korea
  • Negara Standar: Semua Negaracountry-flag
  • TI

Dibuat: 2024-09-13

Dibuat: 2024-09-13 12:01

Universitas Sains dan Teknologi Seoul (selanjutnya disebut SeoulTech) Laboratorium Pemrosesan Bahasa Multimodal (MLP) yang dipimpin oleh Profesor Im Kyung-tae mengumumkan bahwa mereka telah merilis 'Bllossom-V 3.1', model bahasa visual khusus Korea pertama, melalui HuggingFace Leaderboard pada tanggal 4 September lalu.

Model ini adalah model bahasa visual yang dikembangkan berdasarkan 'Bllossom', model bahasa yang dibangun bersama oleh SeoulTech dan TeddySum, melalui proses pelatihan tambahan untuk pemrosesan gambar. Model ini mendukung dua bahasa, yaitu Korea dan Inggris, dan dapat memproses tidak hanya teks tetapi juga gambar. Perilisan Bllossom-V 3.1 ini memiliki makna yang besar karena merupakan LMM khusus Korea pertama yang diperkenalkan di HuggingFace.

Data inti dalam pengembangan Bllossom-V 3.1, LMM khusus Korea pertama, dihasilkan melalui proyek 'Data Pembuatan Dokumen dan Pencarian Informasi' yang diselenggarakan oleh Kementerian Sains dan Teknologi Informasi dan Komunikasi dan dikelola oleh Korean Intelligent Information Society Agency (NIA). Proyek ini dipimpin oleh perusahaan data multimodal Media Group Saramgwasup (selanjutnya disebut Saramgwasup) dan melibatkan EuclidSoft untuk membangun data berkualitas tinggi yang profesional.

Selain itu, Bllossom-V 3.1 adalah model yang telah menyelesaikan pembelajaran pra-pelatihan dalam bahasa Korea dan Inggris dalam jumlah besar dengan menerapkan metode Penyelarasan Lapisan (Layer Aligning) yang dikembangkan bersama oleh SeoulTech dan TeddySum, sehingga mampu mendukung kedua bahasa dengan stabil. Lebih lanjut, model ini telah menerapkan data corpus visual paralel Korea-Inggris MVIF yang dibangun sendiri oleh tim peneliti, sehingga mampu meningkatkan kinerja bahasa Korea secara signifikan tanpa mengurangi kinerja bahasa Inggris. Untuk pembelajaran pra-pelatihan model bahasa visual, sumber daya komputasi yang melimpah dibutuhkan, dan hal ini didukung oleh Artificial Intelligence Industry Convergence Business Unit (AICA).

Han Yun-gi, CEO Saramgwasup, yang bertanggung jawab atas pengelolaan pembangunan data untuk pelatihan model, menyatakan, “Kami merasa sangat bangga telah berkontribusi dalam pembuatan model bahasa visual terbuka Korea-Inggris pertama dengan membangun data berkualitas tinggi. Ke depannya, kami akan terus berkontribusi dalam pembuatan data terbuka yang dapat digunakan untuk berbagai keperluan.”

Model Bllossom-V 3.1 dapat diakses di sini.

Perkenalan Media Group Saramgwasup

Media Group Saramgwasup, yang berawal dari kumpulan kreator dengan kepribadian artistik, memiliki rekam jejak yang luar biasa di bidang digitalisasi berbasis Visual Data, kecerdasan buatan (AI), big data, kendaraan otonom, dan realitas virtual (VR). Berdasarkan hal tersebut, perusahaan ini terus memperluas bisnisnya melalui pengembangan teknologi dan layanan sendiri, serta berupaya untuk memasuki pasar global. Perusahaan ini terus tumbuh menjadi perusahaan yang berpusat pada manusia, baik dalam budaya maupun bisnis, untuk mencapai pertumbuhan dan kebahagiaan bersama melalui data sebagai media penghubung.

Model Bllossom-V 3.1: https://huggingface.co/Bllossom/llama-3.1-Korean-B...

Situs web: https://humanf.co.kr/

Kontak
Media Group Saramgwasup
Tim Operasi DX
Manajer Lee Eun-sil
02-830-8583

Komentar0