(資料圖片)
隨著人工智能(AI)模型體積的增大,一些研究團(tuán)隊(duì)開始倡導(dǎo)使用效率更高、體積更小的專用模型來取代“大型語言模型”。OpenAI的ChatGPT雖然在技術(shù)界備受矚目,但在處理需要推導(dǎo)的數(shù)學(xué)問題時(shí),其表現(xiàn)并不理想。例如,對(duì)于一道代數(shù)題,ChatGPT有時(shí)能給出正確答案,但大多數(shù)情況下會(huì)回答錯(cuò)誤。在一次早期推導(dǎo)能力測(cè)試中,ChatGPT在面對(duì)美國中學(xué)水平的數(shù)學(xué)題集時(shí),只答對(duì)了26%。 然而,2022年6月,谷歌的一款名為Minerva的專用數(shù)學(xué)計(jì)算模型打破了業(yè)界對(duì)“大語言模型計(jì)算數(shù)學(xué)不行”的觀點(diǎn)。據(jù)報(bào)道,Minerva在數(shù)學(xué)題集中答對(duì)了50%,這一結(jié)果讓AI領(lǐng)域的研究者們感到驚訝。微軟研究院的機(jī)器學(xué)習(xí)專家Sébastien Bubeck對(duì)此表示:“在AI圈子里,這還真是個(gè)新奇事。” 這一結(jié)果也證實(shí)了研究團(tuán)隊(duì)長期以來的懷疑:訓(xùn)練更大型的AI模型并不是解決“邏輯問題”的正道。然而,也有觀點(diǎn)認(rèn)為,更大的模型只是在碰巧與訓(xùn)練集相關(guān)的問題上回答得更為出色,而沒有獲得回答全新問題的能力。
關(guān)鍵詞:
關(guān)于我們 廣告服務(wù) 手機(jī)版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日?qǐng)?bào)網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com