人類獲取的信息83%來自視覺,圖文多模態大模型能感知更豐富和**的真實世界信息,構建更**的認知智能,從而向AGI(通用人工智能)邁出更大步伐。
元象今日發布多模態大模型 XVERSE-V,支持任意寬高比圖像輸入,在主流評測中效果**。 該模型全開源,無條件免費商用 ,持續推動海量中小企業、研究者和開發者的研發和應用創新。
XVERSE-V性能優異,在多項權威多模態評測中超過零一萬物Yi-VL-34B、面壁智能OmniLMM-12B及深度求索DeepSeek-VL-7B等開源模型,在綜合能力測評MMBench中超過了谷歌GeminiProVision、阿里Qwen-VL-Plus和Claude-3V Sonnet等知名閉源模型。
圖. 多模態大模型綜合評測
融合整體和局部的高清圖像表示
傳統的多模態模型的圖像表示只有整體,XVERSE-V 創新性地采用了融合整體和局部的策略,支持輸入任意寬高比的圖像。兼顧全局的概覽信息和局部的細節信息,能夠識別和分析圖像中的細微特征,看的更清楚,理解的更準確。
注:Concate* 表示按列進行拼接
這樣的處理方式使模型可以應用于廣泛的領域,包括全景圖識別、衛星圖像、古文物掃描分析等。
示例- 高清全景圖識別 、圖片細節文字識別

免費下載大模型
?Hugging Face:https://huggingface.co/xverse/XVERSE-V-13B
?ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-V-13B
?Git**:https://git**.com/xverse-ai/XVERSE-V-13B
?問詢發送:opensource@xverse.cn
元象持續打造**開源**,在 **最早開源**參數65B 、 全球最早開源最長上下文256K 以及 **前沿的MoE模型 , 并在 SuperCLUE測評**領跑 。此次推出MoE模型, 填補 國產開源空白,更將其 推向了****水 平。
商業應用上,元象大模型是 廣東最早獲得**備案的模型之一 ,可向全社會提供服務。元象大模型去年起已和多個騰訊產品,包括 QQ音樂 、虎牙、全民K歌、騰訊云等,進行深度合作與應用探索,為文化、娛樂、旅游、金融領域打造創新**的用戶體驗。 
多方向實際應用表現突出
模型不僅在基礎能力上表現出色,在實際的應用場景中也有著出色的表現。具備不同場景下的理解能力,能夠處理信息圖、文獻、現實場景、數理題目、科學文獻、代碼轉化等不同需求。
?圖表理解
不論是復雜圖文結合的信息圖理解,還是單一圖表的分析與計算,模型都能夠自如應對。

?視障真實場景
在真實視障場景測試集VizWiz中,XVERSE-V表現出色,超過了InternVL-Chat-V1.5、DeepSeek-VL-7B 等幾乎所有主流的開源多模態大模型。該測試集包含了來自真實視障用戶提出的超過31,000個視覺問答,能準確反映用戶的真實需求與瑣碎細小的問題,幫助視障人群克服他們日常真實的視覺挑戰。
VizWiz測試示例
?看圖內容創作
XVERSE-V具備多模態能力的同時保持強大的文本生成能力,能夠很好勝任理解圖像后創造性文本生成的任務。
?教育解題
模型具備了廣泛的知識儲備和邏輯推理能力,能夠識別圖像解答不同學科的問題。
?百科解答
模型儲備了歷史、文化、科技、安全等各類主題的知識。
?代碼撰寫
?自動駕駛
?情感理解與識別
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

