北京2024年3月27日 /美通社/ -- 3月26日,浪潮信息與英特爾正式宣布,浪潮信息"源2.0系列基礎(chǔ)大模型"已和最新的英特爾® 酷睿? Ultra處理器平臺完成適配,本地推理速度提升100%。企業(yè)可以在全新的英特爾商用客戶端AI PC上,使用AI PC大模型效率工具"YuanChat"快速本地化部署和運行"源2.0"大模型, 以更快的訪問速度、更高的性能和更好的數(shù)據(jù)安全控制,輕松完成自動編程、商業(yè)數(shù)據(jù)計算、公文寫作等任務(wù),釋放大模型在企業(yè)應(yīng)用場景中的生產(chǎn)力和創(chuàng)新力。
2024年是 "大模型落地應(yīng)用的元年",AI PC(人工智能個人電腦),作為一種能夠在本地運行大模型及AIGC應(yīng)用的PC終端,已經(jīng)成為AI實現(xiàn)規(guī)?;瘮U(kuò)展及應(yīng)用落地的重要載體。英特爾基于酷睿 Ultra 處理器強(qiáng)悍的 CPU+GPU+NPU 三大 AI 引擎,為商用客戶端AI PC提供強(qiáng)勁性能,滿足經(jīng)濟(jì)、物理、數(shù)據(jù)保密這三大生成式AI on AI PC 法則,可支持200億規(guī)模大語言模型的本地化運行,加速大模型應(yīng)用落地。
浪潮信息與英特爾合作,針對"源2.0系列基礎(chǔ)大模型",實現(xiàn)酷睿Ultra AI PC平臺推理優(yōu)化,并推出為AI PC而生的大模型效率工具"YuanChat"。浪潮信息"源2.0系列基礎(chǔ)大模型"作為首個全面開源的千億參數(shù)模型,包含1026億、518億、21億等三種參數(shù)規(guī)模。"YuanChat"是基于"源2.0系列基礎(chǔ)大模型"設(shè)計的應(yīng)用工具,旨在以對話形式調(diào)用大模型,幫助用戶完成數(shù)據(jù)計算、公文寫作、編程設(shè)計、知識問答、會議紀(jì)要、文本總結(jié)與摘要等任務(wù)導(dǎo)向型應(yīng)用,真正實現(xiàn)重塑工作模式,提高生產(chǎn)力水平。
基于酷睿 Ultra AI PC上所部署的"YuanChat",用戶能夠流暢地使用"源2.0-2B模型(Yuan2-2B-Februa-hf)"。作為業(yè)界最強(qiáng)的小規(guī)模語言模型,"源2.0-2B模型"具有領(lǐng)先的自動編程、數(shù)值計算和邏輯推理能力,在Python編程測試(Humaneval)、數(shù)學(xué)計算測試(GSM8K)中展現(xiàn)出超越ChatGPT3.5及其他百億(>10B)參數(shù)模型的評測結(jié)果,已成為最具競爭力的開源可商用模型。
基于英特爾商用客戶端AI PC強(qiáng)大的獨立運算能力,"YuanChat"能解決數(shù)據(jù)傳輸過程中的延遲問題與泄露風(fēng)險,能夠?qū)崿F(xiàn)更高的數(shù)據(jù)安全性、性能和控制權(quán)。同時,"YuanChat"支持離線狀態(tài)下的自主操作,這使得終端用戶能夠擺脫網(wǎng)絡(luò)限制,在任何時間、任何地點都能夠進(jìn)行創(chuàng)造性的工作,享受更靈活的大模型交互體驗。
在英特爾商用客戶端AI PC上,可以基于BigDL-LLM大模型加速庫實現(xiàn)對"YuanChat"的模型量化處理,進(jìn)一步提高模型的可移植性并加快計算速度,減少資源占用,彌合終端有限的算力與對高精度模型和實時智能應(yīng)用的需求之間的差距。實測數(shù)據(jù)顯示,在處理復(fù)雜任務(wù)時,"YuanChat"在保證精度的同時,本地推理效率及性能提升達(dá)到100%,進(jìn)一步降低了企業(yè)應(yīng)用大模型的成本。
未來,浪潮信息與英特爾將持續(xù)攜手構(gòu)建活躍的AIPC生態(tài)。雙方將聯(lián)合基于英特爾® 酷睿? Ultra處理器平臺進(jìn)行"源2.0系列基礎(chǔ)大模型"的進(jìn)一步適配與優(yōu)化,不斷完善"YuanChat"應(yīng)用系統(tǒng),將大模型和商用平臺的生產(chǎn)力、安全性、可管理性和穩(wěn)定性有機(jī)結(jié)合,開拓商用 AI PC 更多的新應(yīng)用、新場景、新形態(tài),幫助企業(yè)用戶在PC端打造更加安全、流暢、易用的大模型效率工具,惠及企業(yè)提升效率,賦能世界的智能化變革。