速途網(wǎng)4月28日消息(報(bào)道:李楠)今日,通義千問(wèn)開源1100億參數(shù)模型Qwen1.5-110B,成為全系列首個(gè)千億級(jí)參數(shù)開源模型,并在多項(xiàng)基準(zhǔn)測(cè)評(píng)中都創(chuàng)下可與Llama3-70B媲美的成績(jī)。目前Qwen1.5系列已累計(jì)開源10款大模型,通義千問(wèn)開源模型下載量超過(guò)700萬(wàn)。
通義千問(wèn)1100億參數(shù)模型延續(xù)了Qwen1.5系列的Transformer解碼器架構(gòu),采用了分組查詢注意力方法(GQA),使得模型在推理時(shí)更加高效。110B模型支持32K上下文長(zhǎng)度,具備優(yōu)秀的多語(yǔ)言能力,支持中、英、法、德、西、俄、日、韓、越、阿拉伯等多種語(yǔ)言。
Qwen1.5-110B在MMLU、TheoremQA、GPQA等多個(gè)基準(zhǔn)測(cè)評(píng)中展現(xiàn)出卓越性能,基礎(chǔ)能力可與Meta剛剛發(fā)布的Llama-3-70B模型相媲美,相比通義千問(wèn)720億參數(shù)開源模型也有明顯提升。研發(fā)團(tuán)隊(duì)指出,Qwen1.5-110B的預(yù)訓(xùn)練方法與同系列其他模型并無(wú)明顯差異,性能提升主要來(lái)自于參數(shù)規(guī)模的擴(kuò)增。

研發(fā)團(tuán)隊(duì)還在MT-Bench和AlpacaEval?2.0兩個(gè)測(cè)評(píng)集上對(duì)1100億參數(shù)模型的Chat版本作了評(píng)估,通義千問(wèn)110B比通義千問(wèn)72B的效果有顯著提升。

今年2月初,通義千問(wèn)團(tuán)隊(duì)推出最新開源模型系列Qwen1.5,隨后在不到3個(gè)月的時(shí)間連續(xù)開出8款大語(yǔ)言模型,模型參數(shù)規(guī)模涵蓋5億、18億、40億、70億、140億、320億、720億、1100億;Qwen1.5系列還推出了一款基于LLM開發(fā)的代碼模型CodeQwen1.5-7B和一款混合專家模型Qwen1.5-MoE-A2.7B,均在開源社區(qū)收獲熱烈反響。
開發(fā)者可在魔搭社區(qū)ModelScope和HuggingFace等開源社區(qū)下載使用Qwen1.5-110B。據(jù)悉,目前通義千問(wèn)開源模型下載量超過(guò)700萬(wàn),是最受開發(fā)者歡迎的開源大模型之一。
通義大模型的落地應(yīng)用也開啟了加速度,近期,新東方、同程旅行、長(zhǎng)安汽車、西部機(jī)場(chǎng)集團(tuán)、親寶寶等多家企業(yè)宣布接入通義大模型。通義大模型開始“上天入地”支持千行百業(yè),比如,中國(guó)科學(xué)院國(guó)家天文臺(tái)人工智能組基于通義千問(wèn)開源模型開發(fā)了新一代天文大模型“星語(yǔ)3.0”,大模型首次應(yīng)用于天文觀測(cè)領(lǐng)域;陜煤建新煤礦等十余座礦山推出由通義大模型支持的新型礦山重大風(fēng)險(xiǎn)識(shí)別處置系統(tǒng),這是大模型在礦山場(chǎng)景的首次規(guī)模化落地。