Nhóm nghiên cứu tại Đại học Khoa học và Công nghệ Seoul đã công bố 'Bllossom-V 3.1', mô hình ngôn ngữ lớn (LMM) chuyên biệt cho tiếng Hàn đầu tiên trên HuggingFace.
Mô hình này có khả năng xử lý đồng thời văn bản và hình ảnh, hỗ trợ cả tiếng Hàn và tiếng Anh, được phát triển dựa trên dữ liệu chất lượng cao được xây dựng thông qua dự án của Bộ Khoa học và Công nghệ Thông tin Hàn Quốc.
Đặc biệt, để nâng cao hiệu suất cho tiếng Hàn, mô hình đã tận dụng bộ dữ liệu song ngữ Hàn - Anh về hình ảnh và văn bản. Việc áp dụng phương pháp kết nối phân cấp cho phép mô hình hỗ trợ ổn định hai ngôn ngữ.
Đại học Khoa học và Công nghệ Seoul (sau đây gọi tắt là SeoulTech) - Phòng thí nghiệm Xử lý Ngôn ngữ Đa phương thức (MLP) do Giáo sư Lim Kyung-tae dẫn đầu đã công bố việc phát hành mô hình ngôn ngữ thị giác chuyên biệt cho tiếng Hàn đầu tiên, ‘Bllossom-V 3.1’, thông qua bảng xếp hạng HuggingFace vào ngày 4 tháng 9 vừa qua.
Mô hình này được phát triển dựa trên ‘Bllossom’, một mô hình ngôn ngữ do SeoulTech và TeddySum hợp tác xây dựng, thông qua quá trình đào tạo bổ sung dành cho xử lý hình ảnh. Nó hỗ trợ cả hai ngôn ngữ tiếng Hàn và tiếng Anh, có khả năng xử lý không chỉ văn bản mà cả hình ảnh. Việc công bố Bllossom-V 3.1 lần này đánh dấu một bước tiến quan trọng khi giới thiệu LMM chuyên biệt cho tiếng Hàn đầu tiên trên HuggingFace.
Dữ liệu cốt lõi trong việc phát triển Bllossom-V 3.1, LMM chuyên biệt cho tiếng Hàn đầu tiên, được tạo ra thông qua dự án ‘Dữ liệu Tạo văn bản và Tìm kiếm Thông tin’ do Bộ Khoa học và Công nghệ Thông tin & Truyền thông chủ trì và Viện Hàn lâm Khoa học và Công nghệ Thông tin Hàn Quốc (NIA) tổ chức. Dự án này có sự tham gia của Media Group Saram & Sup (sau đây gọi tắt là Saram & Sup), một công ty chuyên về dữ liệu đa phương thức, với vai trò tổng thể và sự hợp tác của Euclid Soft trong việc xây dựng dữ liệu chất lượng cao mang tính chuyên nghiệp.
Bên cạnh đó, Bllossom-V 3.1 là mô hình đã hoàn thành quá trình học tập trước với khối lượng lớn dữ liệu tiếng Hàn và tiếng Anh bằng cách áp dụng phương pháp sắp xếp lớp (Layer Aligning) do SeoulTech và TeddySum cùng phát triển, nhờ đó hỗ trợ ổn định cho cả hai ngôn ngữ. Thêm vào đó, việc áp dụng tập dữ liệu song ngữ Hàn-Anh MVIF do nhóm nghiên cứu tự xây dựng đã giúp cải thiện đáng kể hiệu năng tiếng Hàn mà không làm giảm hiệu năng tiếng Anh. Việc đào tạo trước cho mô hình ngôn ngữ thị giác đòi hỏi một lượng lớn tài nguyên tính toán, và nhóm nghiên cứu đã nhận được sự hỗ trợ từ Trung tâm Hợp tác Công nghiệp Trí tuệ Nhân tạo (AICA).
Ông Han Yoon-ki, Giám đốc điều hành của Saram & Sup, đơn vị phụ trách tổng thể việc xây dựng dữ liệu đào tạo cho mô hình, chia sẻ: “Chúng tôi cảm thấy vô cùng tự hào khi đã đóng góp vào việc tạo ra mô hình công khai song ngữ Hàn-Anh về ngôn ngữ thị giác đầu tiên thông qua việc xây dựng dữ liệu chất lượng cao. Và chúng tôi sẽ tiếp tục nỗ lực đóng góp vào việc sản xuất dữ liệu công khai có thể được ứng dụng trong nhiều mục đích khác nhau.”
Bạn có thể truy cập vào mô hình Bllossom-V 3.1 tại đây.
Giới thiệu về Media Group Saram & Sup
Media Group Saram & Sup được thành lập bởi những nhà sáng tạo sở hữu cá tính nghệ thuật riêng biệt. Công ty này sở hữu thành tích xuất sắc trong các lĩnh vực liên quan đến số hóa dựa trên Dữ liệu Hình ảnh, Trí tuệ Nhân tạo (AI), Dữ liệu Lớn, Lái xe Tự động, Thực tế Ảo (VR),…và đang đẩy mạnh việc mở rộng kinh doanh đa dạng, bao gồm cả phát triển công nghệ và dịch vụ độc lập, nhằm hướng tới mục tiêu thâm nhập thị trường toàn cầu. Saram & Sup đang không ngừng phát triển, trở thành một doanh nghiệp lấy con người làm trung tâm, xây dựng một nền văn hóa và một doanh nghiệp lấy con người làm trung tâm, cùng nhau phát triển và đạt được hạnh phúc thông qua việc sử dụng dữ liệu làm cầu nối.
Mô hình Bllossom-V 3.1: https://huggingface.co/Bllossom/llama-3.1-Korean-B...
Trang web: https://humanf.co.kr/
Thông tin liên lạc Media Group Saram & Sup Đội ngũ vận hành DX Quản lý Lee Eun-sil 02-830-8583