omniture

技能大模式Skill Model重磅發(fā)布 浪潮"源"大模型加速AI生產(chǎn)力升級(jí)

2022-07-01 09:14 3913

北京2022年6月30日 /美通社/ -- 近日,浪潮信息發(fā)布了基于"源1.0"大模型生成的4個(gè)技能大模型(Skill Model),分別為對(duì)話模型"源曉問(wèn)"、問(wèn)答模型"源曉搜"、翻譯模型"源曉譯"、古文模型"源曉文"。這些技能大模型在各自細(xì)分領(lǐng)域的精度業(yè)界領(lǐng)先,可直接應(yīng)用于人機(jī)交互、知識(shí)檢索、語(yǔ)言翻譯和文學(xué)創(chuàng)作等領(lǐng)域,模型運(yùn)行速度最高提升9倍。更重要的是,基于大模型快速生成特定領(lǐng)域的技能大模型(Skill Model),也意味著"源"的AI生產(chǎn)力大幅升級(jí),能夠幫助商業(yè)組織和研究機(jī)構(gòu)實(shí)現(xiàn)對(duì)AI技術(shù)的高效、快速和低成本應(yīng)用,加速產(chǎn)業(yè)AI化。


技能大模型(Skill Model):大模型生產(chǎn)方式的新變革

應(yīng)用場(chǎng)景的碎片化導(dǎo)致大量的定制化,是當(dāng)前人工智能從技術(shù)向應(yīng)用轉(zhuǎn)化過(guò)程中,遇到的一個(gè)突出問(wèn)題。千行百業(yè)使用人工智能,如果一個(gè)場(chǎng)景一個(gè)場(chǎng)景的去定制,無(wú)論是時(shí)間成本還是人力成本都很高,維護(hù)的難度也很大。大模型的出現(xiàn),使得模型的生產(chǎn)效率得到了極大的提高,技能模型就是典型的代表。

所謂技能大模型(Skill Model),是指面向特定行業(yè)或場(chǎng)景,通過(guò)知識(shí)蒸餾、模型裁剪、模型壓縮等技術(shù),通過(guò)通用大模型生成具備該行業(yè)或場(chǎng)景所需特定技能的專業(yè)模型,在保留通用大模型的知識(shí)、認(rèn)知推理能力及泛化能力基礎(chǔ)上,實(shí)現(xiàn)針對(duì)該領(lǐng)域的技能專業(yè)化、模型輕載化和調(diào)用標(biāo)準(zhǔn)化。

"技能大模型(Skill Model)"帶來(lái)了AI模型生產(chǎn)方式的新變革,將原本耗時(shí)數(shù)月經(jīng)年的大模型開(kāi)發(fā)訓(xùn)練周期,縮短至短短數(shù)周,極大降低了開(kāi)發(fā)與訓(xùn)練成本。技能大模型(Skill Model)的價(jià)值在于,其針對(duì)特定領(lǐng)域進(jìn)行了強(qiáng)化學(xué)習(xí),能夠?qū)崿F(xiàn)與通用的基礎(chǔ)大模型相當(dāng)或更好的性能表現(xiàn),且拿來(lái)即用,使用門(mén)檻更低,應(yīng)用效果更佳。同時(shí)由于模型的輕載化特點(diǎn),使其便于部署且消耗計(jì)算資源更少,能夠顯著減低使用成本和維護(hù)難度。

此外,技能大模型(Skill Model)還可以與通用大模型協(xié)同進(jìn)化,它的執(zhí)行結(jié)果反饋給通用大模型后,能夠讓通用大模型的知識(shí)與能力持續(xù)進(jìn)化,即落地場(chǎng)景越多、模型進(jìn)化得"越聰明",同時(shí)模型進(jìn)化的速度也越快。

浪潮信息副總裁劉軍表示:"研發(fā)大模型需要千萬(wàn)元的訓(xùn)練成本,海量數(shù)據(jù)集及巨大的算力資源,這對(duì)很多客戶來(lái)說(shuō)是個(gè)巨大的門(mén)檻,我們希望通過(guò)"技能大模型(Skill Model)"的模型生產(chǎn)方式變革,推動(dòng)AI生產(chǎn)力的升級(jí),讓行業(yè)用戶甚至是中小用戶也能利用大模型開(kāi)展深度創(chuàng)新,從而加速整個(gè)社會(huì)的智能化升級(jí)。"

四大技能模型重磅發(fā)布: 對(duì)話、問(wèn)答、翻譯、古文

此次浪潮信息發(fā)布的四大技能模型(Skill Model),在繼承"源1.0"大模型通用的知識(shí)與能力基礎(chǔ)上,面向特定領(lǐng)域的場(chǎng)景進(jìn)行針對(duì)性的技能優(yōu)化,模型精度和訓(xùn)練效率均處于業(yè)界領(lǐng)先:在十分之一參數(shù)量的情況下,即可在相同任務(wù)上復(fù)現(xiàn)98%的通用大模型效果,推理速度最高提升9倍。

對(duì)話模型("源曉問(wèn)")在源大模型基礎(chǔ)上,又采用了2660萬(wàn)條醫(yī)療、法律、保險(xiǎn)等不同行業(yè),歷史、電影、娛樂(lè)等不同場(chǎng)景的對(duì)話語(yǔ)料數(shù)據(jù)進(jìn)行強(qiáng)化訓(xùn)練,在高頻閑聊、知識(shí)問(wèn)答等開(kāi)放式問(wèn)答對(duì)話上表現(xiàn)突出,打榜業(yè)界權(quán)威測(cè)評(píng)WebQA開(kāi)放問(wèn)答數(shù)據(jù)集及CUGE兩項(xiàng)榜單均位居榜首。作為高水平對(duì)話問(wèn)答技能模型,源曉問(wèn)可廣泛應(yīng)用于虛擬人、智能助手、智能客服等場(chǎng)景。目前已經(jīng)有開(kāi)發(fā)者在GitHub社區(qū)發(fā)布了由源1.0進(jìn)行角色扮演的劇本殺實(shí)錄,源1.0的場(chǎng)景化對(duì)話技能已經(jīng)達(dá)到了"人機(jī)難辨"的程度。

翻譯模型("源曉譯")基于源大模型閱讀的海量高質(zhì)量數(shù)據(jù)集,采用維基百科、書(shū)籍、聯(lián)合國(guó)文件及字幕組等近80G高質(zhì)量數(shù)據(jù)集進(jìn)行強(qiáng)化訓(xùn)練,因此翻譯不但流暢準(zhǔn)確,同時(shí)更符合中文表述,在中譯英時(shí)表述更加專業(yè)地道,可輕松應(yīng)對(duì)日常對(duì)話、新聞、哲學(xué)、小說(shuō)等日常的語(yǔ)言翻譯任務(wù)。翻譯模型打榜業(yè)內(nèi)權(quán)威WMT數(shù)據(jù)集及CUGE兩項(xiàng)榜單均位居榜首。

問(wèn)答模型("源曉搜")鏈接了包含了維基百科、書(shū)籍等知識(shí)的數(shù)據(jù)庫(kù),根據(jù)用戶提問(wèn)的內(nèi)容,利用高性能檢索方法,快速地從知識(shí)數(shù)據(jù)庫(kù)中檢索到與提問(wèn)內(nèi)容相關(guān)的內(nèi)容作為背景知識(shí),在相關(guān)專業(yè)知識(shí)背景下回答問(wèn)題,能夠生成符合人類(lèi)語(yǔ)言習(xí)慣的專業(yè)答復(fù)。問(wèn)答模型支持不同領(lǐng)域知識(shí)檢索,僅通過(guò)替換鏈接的知識(shí)庫(kù)便可實(shí)現(xiàn)在不同專業(yè)領(lǐng)域之間的適配,實(shí)現(xiàn)了搜索和生成的一體化框架,能滿足不同領(lǐng)域知識(shí)檢索的需求,可廣泛應(yīng)用于醫(yī)療、法律、保險(xiǎn)及娛樂(lè)等領(lǐng)域的智能客服、個(gè)人助理等場(chǎng)景。此前在打榜WebQA任務(wù)上,問(wèn)答模型以55.97%的準(zhǔn)確度在業(yè)界遙遙領(lǐng)先。

古文模型("源曉文")在源大模型精讀了5000GB高質(zhì)量中文的基礎(chǔ)上,又學(xué)習(xí)了先秦到近代幾乎所有詩(shī)詞,并精選其中最優(yōu)秀的10萬(wàn)首進(jìn)行強(qiáng)化訓(xùn)練。海量學(xué)習(xí)兼針對(duì)性強(qiáng)化訓(xùn)練使得古文理解模型能夠精通古詩(shī)詞的用詞、文法及平仄格律等規(guī)則,還擅長(zhǎng)營(yíng)造意境、引經(jīng)據(jù)典,同時(shí)兼具古文解析的能力,因此古文模型能夠輕松解決今年高考古文翻譯、詩(shī)詞鑒賞等題目,在"金陵詩(shī)會(huì)"活動(dòng)中,短短3天作詩(shī)近2000首,可廣泛應(yīng)用于文學(xué)創(chuàng)作、古詩(shī)文教學(xué)、漢語(yǔ)言文化研究等場(chǎng)景中。

"源1.0"是浪潮信息在2021年發(fā)布的巨量中文語(yǔ)言模型,參數(shù)量高達(dá)2457億,比此前OpenAI發(fā)布的GPT-3大模型,參數(shù)量增加40%,訓(xùn)練數(shù)據(jù)集提升10倍,發(fā)布時(shí)便問(wèn)鼎中文語(yǔ)言理解評(píng)測(cè)基準(zhǔn)CLUE榜單的零樣本和小樣本學(xué)習(xí)兩類(lèi)總榜冠軍。目前,"源1.0"已經(jīng)相繼完成了模型API、高質(zhì)量數(shù)據(jù)集、模型訓(xùn)練代碼、推理代碼和應(yīng)用代碼等等內(nèi)容的開(kāi)源開(kāi)放,在GitHub社區(qū)、浪潮源官網(wǎng)均可以申請(qǐng)獲取相關(guān)的資源,已有超600家用戶借助"源1.0"提供的數(shù)據(jù)集和API,構(gòu)建了覆蓋金融、互聯(lián)網(wǎng)、醫(yī)療和自動(dòng)駕駛等行業(yè)的高水平人工智能應(yīng)用。

消息來(lái)源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號(hào)“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營(yíng)動(dòng)態(tài)、財(cái)報(bào)信息、企業(yè)并購(gòu)消息。掃描二維碼,立即訂閱!
collection