Il team del professor Im Kyung-tae del laboratorio di elaborazione del linguaggio multimodale (MLP) della Seoul National University of Science and Technology (di seguito SeoulTech) ha annunciato di aver rilasciato il 4 settembre scorso, tramite la classifica di HuggingFace, "Bllossom-V 3.1", il primo modello di linguaggio visivo-linguistico (LMM) specializzato nella lingua coreana.
Questo modello è un modello di linguaggio visivo-linguistico sviluppato sulla base di "Bllossom", un modello di linguaggio sviluppato congiuntamente da SeoulTech e TeddySum, attraverso un ulteriore processo di addestramento per l'elaborazione delle immagini. Supporta sia la lingua coreana che quella inglese e può elaborare non solo il testo ma anche le immagini. Il rilascio di Bllossom-V 3.1 è significativo in quanto rappresenta il primo LMM specializzato nella lingua coreana su HuggingFace.
I dati che hanno svolto un ruolo fondamentale nello sviluppo di Bllossom-V 3.1, il primo LMM specializzato nella lingua coreana, sono stati creati attraverso il progetto "Generazione di documenti e ricerca di informazioni", organizzato dal Ministero della Scienza e delle TIC e gestito dal Korea Intelligent Information Society Agency (NIA). In questo progetto, Media Group Saramgwasup (di seguito Saramgwasup), in qualità di responsabile, ha collaborato con Euclide Soft per costruire dati di alta qualità e specializzati.
Inoltre, Bllossom-V 3.1 è un modello che ha completato un ampio addestramento preliminare in coreano e inglese applicando il metodo di allineamento degli strati (Layer Aligning) sviluppato congiuntamente da SeoulTech e TeddySum, e supporta in modo stabile le due lingue. Inoltre, applicando il dataset di corpus visivo bilingue coreano-inglese MVIF creato dal team di ricerca, ha ottenuto un grande miglioramento delle prestazioni in lingua coreana senza compromettere le prestazioni in lingua inglese. Le vaste risorse computazionali necessarie per il pre-addestramento del modello di linguaggio visivo-linguistico sono state fornite dall'Artificial Intelligence Industry Convergence Business Unit (AICA).
Han Yoon-ki, CEO di Saramgwasup, che ha supervisionato la costruzione dei dati per l'addestramento del modello, ha affermato: "Sono molto orgoglioso di aver contribuito alla creazione del primo modello di linguaggio visivo-linguistico coreano-inglese open source attraverso la costruzione di dati di alta qualità" e ha aggiunto: "Continueremo a contribuire alla creazione di dati open source che possono essere utilizzati in vari modi in futuro".
Il modello Bllossom-V 3.1 è disponibile qui.
Introduzione di Media Group Saramgwasup
Media Group Saramgwasup, nato dall'incontro di creatori con una forte personalità autoriale, vanta un'eccellente esperienza in settori come la digitalizzazione basata sui dati visivi, l'intelligenza artificiale (AI), i big data, la guida autonoma, la realtà virtuale (VR) e sta promuovendo l'espansione in vari settori, incluso lo sviluppo di tecnologie e servizi propri, mirando all'ingresso nel mercato globale. Con i dati come tramite, sta crescendo come un'azienda che si concentra sulla cultura e sulle persone, diventando un'azienda incentrata sulle persone, in cui tutti possono crescere insieme e trovare la felicità.
Modello Bllossom-V 3.1: https://huggingface.co/Bllossom/llama-3.1-Korean-B...
Sito web: https://humanf.co.kr/
Contatti
Media Group Saramgwasup
Team Operazioni DX
Manager Lee Eun-sil
02-830-8583
Commenti0