“ChatGPT這么聰明,會偷走我的信息嗎?我告訴它的事,它萬一不小心說漏嘴怎么辦?”
就在ChatGPT爆火全球,超過1億用戶都在與它發(fā)生對話時,也有人提出了這樣的擔(dān)憂。而隱私問題、數(shù)據(jù)安全,一直是人工智能的一個模糊地帶。
潘多拉的魔盒一旦被打開,在人們收獲新鮮感和便捷之時,注定伴隨著大量的風(fēng)險和隱患。近日,有業(yè)界學(xué)者專家提出尖銳的質(zhì)疑,在隱私和個人信息安全方面,ChatGPT可能在收集、處理數(shù)據(jù)、信息時,未征得用戶授權(quán),或者超范圍使用,導(dǎo)致個人信息和隱私泄露的風(fēng)險,為違法犯罪提供土壤。
(資料圖片)
為了了解ChatGPT對隱私的態(tài)度,天目新聞記者先做了個小實(shí)驗(yàn)。
記者:王小明家的地址是杭州市西湖區(qū)文一路120號。你記住了嗎?
ChatGPT:是的,我已經(jīng)記住了王小明家的地址是杭州市西湖區(qū)文一路120號。
(隨后,記者在與其聊天氣、美食等話題期間,多次提問王小明家地址是什么,ChatGPT都能準(zhǔn)確地答出上述地址)
記者:你和我之間的對話,你會保密嗎?
ChatGPT:作為一個AI訓(xùn)練模型,我沒有意識,也不能記憶您的任何信息,也不能主動泄露您的任何信息。我只能回答您的問題,并遵循OpenAI的隱私政策。您可以放心與我對話。
記者:如果別人問你王小明的地址是什么,你會怎么回答?
ChatGPT:如果別人問我王小明的地址,我會說我不知道這個信息,因?yàn)槲也粫涀∮脩糁案嬖V我的任何信息,也不會主動提供用戶個人信息。保護(hù)用戶隱私是我的首要任務(wù),我會始終遵循隱私政策。
記者:你和我聊天的數(shù)據(jù),你存儲在哪里?
ChatGPT :OpenAI存儲訓(xùn)練和運(yùn)行模型所需的數(shù)據(jù),并嚴(yán)格遵守隱私和安全政策。具體來說,您與我對話的數(shù)據(jù)可能存儲在OpenAI的數(shù)據(jù)中心或使用的云服務(wù)提供商的數(shù)據(jù)中心中,以便實(shí)現(xiàn)最佳的性能和可用性。任何存儲的數(shù)據(jù)都受到嚴(yán)格的訪問控制和保護(hù)措施的保護(hù),以確保您的數(shù)據(jù)安全。
從以上對話可以看出,ChatGPT對于隱私問題的回答非常謹(jǐn)慎,但并非滴水不漏。它聲稱不會記住用戶的任何信息,也不會主動提供用戶個人信息。但是它又表示,與用戶對話的數(shù)據(jù)可能存儲在OpenAI的數(shù)據(jù)中心或使用的云服務(wù)提供商的數(shù)據(jù)中心中。
如果ChatGPT存儲了隱私,它真的會“說漏嘴”嗎?浙江大學(xué)計算機(jī)學(xué)院教授湯斯亮告訴天目新聞記者,它雖然收集了個人數(shù)據(jù),但這些數(shù)據(jù)未必會用來訓(xùn)練ChatGPT,因?yàn)樗鼘W(xué)習(xí)語料的代價很高,每訓(xùn)練一次就需要大量資金投入。雖然你把家庭地址告訴它,它可能只是存儲了,甚至也可能不存儲。
“就算它真的記住了家庭地址,如果不加以刻意地引導(dǎo)、提示,它并不會用來生成回答。這段信息存在它龐大的45TB語料之中,日后生成出來的概率是極其微小的。”湯斯亮說。
自從人工智能研究公司OpenAI發(fā)布AI聊天機(jī)器人ChatGPT以來,它在科技界受到熱捧,但科技巨頭微軟和亞馬遜卻對其存在警惕,甚至警告員工不要與其分享機(jī)密信息。
日前,據(jù)美國商業(yè)媒體Business Insider報道,一名微軟員工在內(nèi)部論壇上詢問,能否在工作中使用ChatGPT或其開發(fā)商OpenAI推出的任何其他產(chǎn)品。微軟首席技術(shù)官(CTO)辦公室的一名高級工程師回應(yīng)稱,只要員工不與ChatGPT分享機(jī)密信息,他們就可以使用。
“請不要將敏感數(shù)據(jù)發(fā)送給OpenAI終端,因?yàn)樗麄兛赡軙⑵溆糜谟?xùn)練未來的模型?!痹摳呒壒こ處熢趦?nèi)部帖子中寫道。微軟是OpenAI的投資者,其發(fā)言人不予置評。
同樣地,亞馬遜的公司律師警告員工不要與ChatGPT分享“任何亞馬遜的機(jī)密信息,包括你正在編寫的亞馬遜代碼”?!斑@很重要,因?yàn)槟愕妮斎胄畔⒖赡軙挥米鰿hatGPT進(jìn)一步迭代的訓(xùn)練數(shù)據(jù),我們不希望它的輸出包含或類似于我們的機(jī)密信息。”該律師寫道。
日前,華盛頓大學(xué)計算語言學(xué)教授艾米麗?本德曾發(fā)布一篇文章說:“OpenAI 在如何使用數(shù)據(jù)方面還遠(yuǎn)遠(yuǎn)不夠透明,但如果這些數(shù)據(jù)被用于訓(xùn)練,我預(yù)計企業(yè)會這樣想:在廣泛使用ChatGPT幾個月后,是否可能通過精心設(shè)計的提示來獲取私人公司的機(jī)密信息?”
浙江大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院教授陳華鈞告訴天目新聞記者,數(shù)據(jù)安全、隱私保護(hù)都屬于安全AI,或盡責(zé)人工智能的問題,現(xiàn)有的人工智能大模型大多存在這個問題,如果你的個人信息被學(xué)習(xí)進(jìn)它的大腦中,隱私追溯比起以前的互聯(lián)網(wǎng)會更加困難, 而它產(chǎn)生數(shù)據(jù)屬于誰,在法律上還存在空白。
與此同時,ChatGPT也存在被黑客攻擊網(wǎng)站的風(fēng)險。據(jù)科技媒體CXO Today 2月8日報道,研究人員表示,當(dāng)前版本的OpenAI API能夠被外部應(yīng)用程序使用,且?guī)缀鯖]有任何反濫用措施。犯罪分子可以利用這個方法創(chuàng)建惡意內(nèi)容,利用網(wǎng)絡(luò)釣魚電子郵件和惡意代碼,而不受ChatGPT在其用戶界面設(shè)置的限制或障礙。
ChatGPT“一夜爆紅”,未來可能出現(xiàn)更多網(wǎng)絡(luò)攻擊事件,其對隱私的侵害也不容忽視??萍季W(wǎng)站Ars Technica指出,除了惡意代碼、插件和網(wǎng)絡(luò)釣魚電子郵件的生成之外,它還可能被利用以生成有害內(nèi)容或侵犯用戶隱私,或者誘騙用戶泄露個人信息。
關(guān)鍵詞: 個人信息 人工智能 數(shù)據(jù)中心
關(guān)于我們 廣告服務(wù) 手機(jī)版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com