서울과기대 araştırma ekibi, Türkçe odaklı görsel-dil modeli 'Bllossom-V 3.1'i HuggingFace'te yayınlayarak ilk Türkçe LMM'yi tanıttı.
Metin ve görüntüyü aynı anda işleyebilen bu model, Türkçe ve İngilizceyi destekliyor ve Bilim ve Teknoloji Bilgi ve İletişim Bakanlığı projesi kapsamında oluşturulan yüksek kaliteli verilere dayanarak geliştirildi.
Özellikle Türkçe performansını artırmak için Türkçe-İngilizce paralel görsel metin verileri kullanıldı ve hiyerarşik bağlantı yönteminin uygulanmasıyla istikrarlı 2 dil desteği sağlandığı belirtiliyor.
Seul Bilim ve Teknoloji Üniversitesi (bundan sonra Seul Bilim ve Teknoloji Üniversitesi olarak anılacaktır) Çoklu Modal Dil İşleme Araştırma Laboratuvarı (MLP) Profesörü Kyung-Tae Lim'in liderliğindeki ekip, 4 Eylül'de HuggingFace Liderlik Tablosunda ilk Korece odaklı görsel-dil modeli olan 'Bllossom-V 3.1'i yayınladığını duyurdu.
Bu model, Seul Bilim ve Teknoloji Üniversitesi ve TeddySum tarafından ortaklaşa oluşturulan 'Bllossom' dil modeline dayanarak, görüntü işleme için ek bir eğitim sürecinden geçirilerek geliştirilmiş bir görsel-dil modelidir. Hem Korece hem de İngilizce olmak üzere iki dili destekler ve yalnızca metin değil, aynı zamanda görüntü işleme yeteneğine de sahiptir. Bllossom-V 3.1'in bu yayını, HuggingFace'te ilk Korece odaklı LMM'nin sunulması açısından büyük önem taşımaktadır.
İlk Korece odaklı LMM olan Bllossom-V 3.1'in geliştirilmesinde temel rol oynayan veriler, Bilim ve Teknoloji Bilgi ve İletişim Bakanlığı tarafından düzenlenen ve Kore Yapay Zeka Toplumu Geliştirme Enstitüsü (NIA) tarafından yürütülen 'Belge Oluşturma ve Bilgi Arama Verileri' projesi aracılığıyla oluşturuldu. Bu projede, çoklu modal veri konusunda uzman bir medya grubu olan Media Group Saramgwasup (bundan sonra Saramgwasup olarak anılacaktır), EuclidSoft ile birlikte yüksek kaliteli uzman veriler oluşturmak üzere genel koordinatör olarak görev aldı.
Ayrıca Bllossom-V 3.1, Seul Bilim ve Teknoloji Üniversitesi ve TeddySum tarafından ortaklaşa geliştirilen Katman Hizalama (Layer Aligning) yöntemini uygulayan ve büyük miktarda Korece ve İngilizce ön eğitimden geçmiş bir modeldir ve iki dili istikrarlı bir şekilde destekler. Ek olarak, araştırma ekibi tarafından doğrudan oluşturulan MVIF Korece-İngilizce paralel görsel metin verileri uygulanarak, İngilizce performansında düşüş olmadan Korece performansında büyük bir iyileştirme sağlanmıştır. Görsel-dil modelinin ön eğitimi için gerekli olan muazzam miktarda bilgi işlem kaynağı, Yapay Zeka Endüstrisi Entegrasyon İş Birimi (AICA) tarafından sağlanmıştır.
Model eğitim verilerinin oluşturulmasından sorumlu Saramgwasup CEO'su Yoon-Ki Han, “Yüksek kaliteli veri oluşturarak ilk Korece-İngilizce görsel-dil açık modelini oluşturmaya katkıda bulunmaktan büyük bir gurur duyuyoruz” diyerek, “Gelecekte de çeşitli amaçlar için kullanılabilecek açık verilerin oluşturulmasına katkıda bulunmaya devam edeceğiz” dedi.
Bllossom-V 3.1 modeli burada bulunabilir.
Media Group Saramgwasup Tanıtımı
Yazar odaklı bireyselliğe sahip yaratıcıların bir araya gelmesiyle kurulan Media Group Saramgwasup, görsel verilere dayalı dijitalleştirme, yapay zeka (AI), büyük veri, otonom sürüş, sanal gerçeklik (VR) gibi alanlarda üstün başarılar elde etmiştir ve bu altyapıya dayalı kendi teknolojisi ve hizmet geliştirme gibi çok yönlü iş genişletmeleriyle küresel pazara açılmayı hedeflemektedir. Verileri aracı olarak kullanarak insan odaklı bir kültür ve insan odaklı bir şirket olmak üzere birlikte büyüyen ve mutlu olabilen bir şirket olarak gelişmektedir.