(相關(guān)資料圖)
阿里云于8月25日推出了大規(guī)模視覺語言模型Qwen-VL,該模型已在ModeScope開源。此前,阿里云已經(jīng)開源了通用模型Qwen-7B和對(duì)話模型Qwen-7B-Chat。Qwen-VL是一款支持中英文等多種語言的視覺語言模型,相較于此前的視覺語言模型,除了具備基本的圖文識(shí)別、描述、問答及對(duì)話能力之外,還新增了視覺定位、圖像中文字理解等能力。Qwen-VL以Qwen-7B為基座語言模型,在模型架構(gòu)上引入視覺編碼器,使得模型支持視覺信號(hào)輸入,該模型支持的圖像輸入分辨率為448,此前開源的視覺語言模型通常僅支持224分辨率。官方表示,該模型可用于知識(shí)問答、圖像標(biāo)題生成、圖像問答、文檔問答、細(xì)粒度視覺定位等場景,在主流的多模態(tài)任務(wù)評(píng)測和多模態(tài)聊天能力評(píng)測中,取得了遠(yuǎn)超同等規(guī)模通用模型的表現(xiàn)。在Qwen-VL的基礎(chǔ)上,通義千問團(tuán)隊(duì)使用對(duì)齊機(jī)制,打造了基于語言模型的視覺AI助手Qwen-VL-Chat,可讓開發(fā)者快速搭建具備多模態(tài)能力的對(duì)話應(yīng)用。通義千問團(tuán)隊(duì)同時(shí)表示,為了測試模型的多模態(tài)對(duì)話能力,他們構(gòu)建了一套基于GPT-4打分機(jī)制的測試集“試金石”,對(duì)Qwen-VL-Chat及其他模型進(jìn)行對(duì)比測試,Qwen-VL-Chat在中英文的對(duì)齊評(píng)測中均取得了開源視覺語言模型最好結(jié)果。
關(guān)鍵詞:
關(guān)于我們 廣告服務(wù) 手機(jī)版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日?qǐng)?bào)網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com