(資料圖片僅供參考)
ChatGPT可以說(shuō)賺足了風(fēng)頭,現(xiàn)在這款A(yù)I語(yǔ)言模型迎來(lái)大升級(jí),OpenAPI推出了GPT-4模型,本次升級(jí)讓ChatGPT具備了圖像的識(shí)別和理解能力,使其有了更強(qiáng)大的功能。
消息稱,GPT-4模型的參數(shù)量高達(dá)100萬(wàn)億,比現(xiàn)有的ChatGPT模型強(qiáng)大500多倍。然而,OpenAPI并未證實(shí)這一指標(biāo)。GPT-4主要的升級(jí)是在多模態(tài)能力方面,而非參數(shù)量方面。它原本只支持文本,但現(xiàn)在已經(jīng)能夠識(shí)別和理解圖像。舉例來(lái)說(shuō),用戶可以發(fā)送圖片給ChatGPT,讓ChatGPT識(shí)別圖片中的顏色、描述圖片內(nèi)容、閱讀地圖,并提出建議。
此外,GPT-4還支持更長(zhǎng)的Token序列,之前的版本限制為4096個(gè)Token,大約只有8000個(gè)單詞,但現(xiàn)在它支持32768個(gè)Token,相當(dāng)于6.4萬(wàn)個(gè)單詞或50頁(yè)文本,一次對(duì)話足以完成一部劇本或者短篇小說(shuō)。此外,GPT-4還支持更多的語(yǔ)言,擴(kuò)展到了26種,回答也更加個(gè)性化。
關(guān)鍵詞:
關(guān)于我們 廣告服務(wù) 手機(jī)版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛(ài)好者日?qǐng)?bào)網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com