1月24日,巖芯數(shù)智正式發(fā)布自研大模型“Yan模型”。Yan模型采用非Transformer架構(gòu),為非Attention機(jī)制的通用自然語(yǔ)言大模型。據(jù)悉,該大模型相較于同等參數(shù)的Transformer,在訓(xùn)練效率上提高了7倍,在推理吞吐方面提高了5倍,并且擁有3倍的記憶能力。
編輯/程乾本平臺(tái)發(fā)布/轉(zhuǎn)載的內(nèi)容僅用于信息分享,不代表我司對(duì)外的任何意見(jiàn)、建議或保證,我們倡導(dǎo)尊重與保護(hù)知識(shí)產(chǎn)權(quán),如發(fā)現(xiàn)本站文章存在版權(quán)問(wèn)題,煩請(qǐng)將版權(quán)疑問(wèn)、授權(quán)證明、版權(quán)證明、聯(lián)系方式等,發(fā)郵件至info@tonews.cn,我們將第一時(shí)間核實(shí)、處理。同時(shí),歡迎各方媒體、機(jī)構(gòu)轉(zhuǎn)載和引用,但要嚴(yán)格注明來(lái)源:今日商訊。