(資料圖)
本報記者 李喬宇
3月14日,商湯科技發布多模態多任務通用大模型“書生(INTERN)2.5”,在多模態多任務處理能力方面實現多項全新突破,其圖文跨模態開放任務處理能力可為自動駕駛、機器人等通用場景任務提供高效精準的感知和理解能力支持,向通用人工智能邁出堅實的一步?!皶↖NTERN)”最初版本由商湯科技、上海人工智能實驗室、清華大學、香港中文大學、上海交通大學在2021年11月首次共同發布,并持續聯合研發。
“書生2.5”擁有30億參數,不僅是世界上開源模型中ImageNet準確度最高、規模最大的模型,也是物體檢測標桿數據集COCO中唯一超過65.0mAP的模型。目前,“書生2.5”多模態通用大模型已在通用視覺開源平臺OpenGVLab開源,為學術界和產業界的多模態通用模型研發提供有力支撐。
當前,人工智能技術的發展正面臨著大量跨模態任務的挑戰,為滿足快速增長的各式應用場景需求,發展更為通用的人工智能模型已成為科技前沿的核心焦點問題。此次全新發布的“書生2.5”致力于多模態多任務通用模型的構建,可接收處理各種不同模態的輸入,并采用統一的模型架構和參數處理各種不同的任務,促進不同模態和任務之間在表示學習方面的協作,逐步實現通用人工智能領域的融會貫通。
“書生2.5”實現了通過文本來定義任務,從而可以靈活地定義不同場景的任務需求,并根據給定視覺圖像和任務的提示性語句,給出相應的指令或作答,進而具備通用場景下的高級感知和復雜問題處理能力,比如圖像描述、視覺問答、視覺推理和文字識別等。
(編輯 張明富)
關鍵詞: