【資料圖】
據(jù)美國消費(fèi)者新聞與商業(yè)頻道(CNBC)5月17日消息,谷歌上周宣布的大型語言模型PaLM 2使用的訓(xùn)練數(shù)據(jù)幾乎是其前身的五倍,使其能夠執(zhí)行更高級的編碼、數(shù)學(xué)和創(chuàng)意寫作任務(wù)。
根據(jù)CNBC查看的內(nèi)部文件,PaLM 2是谷歌在I/O大會上推出的新型通用大型語言模型,它接受了3.6萬億個token的訓(xùn)練。
谷歌之前版本的PaLM于2022年發(fā)布,并接受了7800億個token的訓(xùn)練。
來源:界面
標(biāo)簽: