張凌寒 中國政法大學(xué)數(shù)據(jù)法治研究院教授、博士生導(dǎo)師
翁音韻 上海市人民檢察院第四檢察部三級高級檢察官
編者按:人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,自其步入大眾視野后,深刻影響并惠及人們生活的方方面面,但同時也產(chǎn)生前所未有的挑戰(zhàn)。如何確保人們的隱私和個人信息安全?新技術(shù)會引發(fā)哪些法律風(fēng)險?對科技犯罪應(yīng)該如何治理?帶著這些問題,本刊邀請專家學(xué)者和檢察官進(jìn)行深入探討,以期更好地理解科技、防范風(fēng)險和應(yīng)對挑戰(zhàn)。
【資料圖】
記者:隨著ChatGPT的出現(xiàn),公眾在欣喜于科技帶來便捷的同時,也發(fā)現(xiàn)人工智能技術(shù)在運(yùn)用中不可避免地會對倫理、法律等方面帶來挑戰(zhàn)。請舉例說明。
張凌寒:以Deepfake、ChatGPT、元宇宙等為代表的深度合成技術(shù)與應(yīng)用場景展現(xiàn)了強(qiáng)大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風(fēng)險。深度合成的技術(shù)與應(yīng)用,不僅不能化解算法治理一直致力解決的算法黑箱、算法歧視等傳統(tǒng)問題,而且由于其技術(shù)特點(diǎn),還會給我們帶來更多的治理挑戰(zhàn)。其一,深度合成改變了信息生成方式,會帶來潛在的安全問題。其二,深度合成的發(fā)展對現(xiàn)有數(shù)據(jù)、算法、算力分而治之的治理體系提出嚴(yán)峻挑戰(zhàn),網(wǎng)絡(luò)安全、個人信息、數(shù)據(jù)保護(hù)、數(shù)據(jù)跨境流動的制度都需要作出相應(yīng)調(diào)整。其三,深度合成會強(qiáng)化技術(shù)壟斷和技術(shù)競爭,不僅使數(shù)據(jù)共享共用愈加難以實(shí)現(xiàn),而且會加深國家、地區(qū)、人群間的數(shù)字鴻溝。
翁音韻:近期人工智能生成內(nèi)容的相關(guān)技術(shù)大火,其所帶來的商業(yè)價值和應(yīng)用前景備受關(guān)注,但其可能關(guān)聯(lián)的風(fēng)險也迅速呈現(xiàn),值得警惕。以ChatGPT等大模型的運(yùn)用為例,首先,大模型的數(shù)據(jù)被反復(fù)訓(xùn)練打散和整合,數(shù)據(jù)源的所有權(quán)和保護(hù)權(quán)就可能會被架空。其次,若用戶在大模型中輸入問題請求時,可能會無意或有意輸入含有個人信息、金融、商業(yè)秘密等在內(nèi)的各種信息,則可能導(dǎo)致相關(guān)數(shù)據(jù)泄露。最后,大模型訓(xùn)練使用的數(shù)據(jù)源可能存在不合法、不合規(guī)、虛假甚至是完全錯誤的內(nèi)容,生成的內(nèi)容會引發(fā)相關(guān)的法律風(fēng)險,甚至可能被用于犯罪,如用于生成犯罪腳本、虛假信息的網(wǎng)絡(luò)“釣魚”和欺詐活動,以及生成惡意代碼等行為,可能會對用戶設(shè)備和數(shù)據(jù)造成損害。
記者:數(shù)據(jù)是人工智能產(chǎn)業(yè)發(fā)展的核心生產(chǎn)要素,人工智能引發(fā)的諸多問題也主要來自于數(shù)據(jù),如何看待人工智能廣泛應(yīng)用背景下的數(shù)據(jù)合規(guī)問題?
張凌寒:傳統(tǒng)人工智能背景下的數(shù)據(jù)合規(guī),合規(guī)主體聚焦于平臺,即深度合成服務(wù)提供者。在生成式人工智能廣泛應(yīng)用與發(fā)展背景下,上游的深度合成技術(shù)支持者與下游的深度合成服務(wù)使用者的數(shù)據(jù)合規(guī)也應(yīng)當(dāng)受到重視,既要加強(qiáng)深度合成技術(shù)支持者的數(shù)據(jù)合規(guī)體系建設(shè),確保訓(xùn)練數(shù)據(jù)合規(guī);又要重視深度合成服務(wù)使用者的數(shù)據(jù)合規(guī)體系建設(shè),確保輸入數(shù)據(jù)合規(guī)。此外,在用戶與生成式人工智能明文互動的情況下,如何通過技術(shù)加強(qiáng)對用戶行為的合法性約束,是下一步技術(shù)開發(fā)和制度設(shè)計應(yīng)認(rèn)真對待的問題。
翁音韻:在我看來,一方面,要鼓勵和支持相關(guān)企業(yè)建立企業(yè)自身數(shù)據(jù)合規(guī)體系,督促企業(yè)加強(qiáng)對數(shù)據(jù)的管理和監(jiān)控,規(guī)范企業(yè)數(shù)據(jù)獲取、存儲、傳輸、處理等行為,確保數(shù)據(jù)安全和合規(guī)。另一方面,監(jiān)管部門要幫助企業(yè)劃定數(shù)據(jù)合規(guī)相關(guān)基線,對照法律政策和業(yè)務(wù)特點(diǎn),及時掌握市場變化和監(jiān)管政策,明確需要遵守的合規(guī)義務(wù),引導(dǎo)企業(yè)制定合規(guī)方案??紤]到可行性,可以對各類數(shù)據(jù)分級分類逐步落實(shí)合規(guī)措施,如對個人隱私數(shù)據(jù)優(yōu)先采取更為嚴(yán)格的保護(hù)措施,保證重要數(shù)據(jù)的安全和合規(guī)。
記者:惡意濫用人工智能技術(shù)對技術(shù)的生存與發(fā)展造成巨大阻礙,整治濫用人工智能亂象,需多方施策。對于科技犯罪應(yīng)該如何治理?如何形成合力,讓全社會都參與到對此類人工智能黑科技的治理與抵制中?
張凌寒:人工智能技術(shù)的發(fā)展與應(yīng)用,極大降低了專業(yè)知識與特定技能的獲取門檻。ChatGPT類的生成式人工智能具備了無代碼編程能力,降低了攻擊代碼編寫的技術(shù)門檻,可能會導(dǎo)致更多的網(wǎng)絡(luò)安全攻擊發(fā)生。人工智能時代的科技犯罪治理更加強(qiáng)調(diào)多方協(xié)同,需由國家把握頂層設(shè)計,加快出臺與非法利用人工智能技術(shù)相關(guān)的禁止性規(guī)定,嚴(yán)厲打擊利用人工智能技術(shù)實(shí)施的違法犯罪行為;以平臺為治理樞紐,積極履行自身安全管理義務(wù),主動承擔(dān)對上游技術(shù)支持者和下游服務(wù)使用者的管理責(zé)任;重視行業(yè)協(xié)會組織在人工智能技術(shù)犯罪治理中的作用,激勵行業(yè)協(xié)會充分發(fā)揮其在人工智能技術(shù)領(lǐng)域的專業(yè)優(yōu)勢,主動參與到科技犯罪偵查活動中;動員公民個人積極參與到網(wǎng)絡(luò)犯罪、數(shù)據(jù)犯罪防控過程中,健全違法犯罪活動舉報獎勵機(jī)制,拓寬犯罪發(fā)現(xiàn)與線索追查渠道。
翁音韻:首先,應(yīng)當(dāng)在法律政策層面明確對違法犯罪行為的懲治要求和標(biāo)準(zhǔn),對人工智能濫用行為進(jìn)行打擊要實(shí)現(xiàn)有法可依。其次,應(yīng)當(dāng)加強(qiáng)對人工智能技術(shù)的監(jiān)管,對人工智能技術(shù)進(jìn)行安全審核和評估,對濫用人工智能技術(shù)及時進(jìn)行監(jiān)測,有效遏制濫用人工智能的行為。再次,還應(yīng)該加強(qiáng)對人工智能安全技術(shù)的研究,提高人工智能技術(shù)的智能化和安全性,及時發(fā)現(xiàn)和防范安全風(fēng)險,從技術(shù)層面對抗人工智能技術(shù)濫用。最后,通過宣傳教育,加強(qiáng)社會公眾對濫用人工智能問題的認(rèn)知和理解,引導(dǎo)社會公眾增強(qiáng)自我保護(hù)意識,正確使用人工智能技術(shù),形成對抗濫用人工智能的社會共識和合力。
記者:人工智能法律挑戰(zhàn)的背后是機(jī)器智能對現(xiàn)有以人類智能為中心的法律秩序的挑戰(zhàn)。新技術(shù)引發(fā)的沖擊是否意味著法律真空的出現(xiàn)?是否需要在人工智能立法層面予以跟進(jìn)?
張凌寒:面對深度合成中的生成式人工智能等具有一定通用性質(zhì)的新型人工智能技術(shù),應(yīng)及時調(diào)整治理方案,搶抓規(guī)則制定權(quán),推動我國在該領(lǐng)域的本土化制度建設(shè)和制度引領(lǐng)。應(yīng)以ChatGPT為代表的生成式人工智能發(fā)展為契機(jī),推動深度合成治理成為人工智能治理的專門領(lǐng)域。從長遠(yuǎn)來看,加強(qiáng)深度合成治理專門立法是必然趨勢。在對深度合成治理作出專門性制度探索的基礎(chǔ)上,推進(jìn)人工智能基礎(chǔ)性立法,解決人工智能領(lǐng)域的通用問題。一是算法、算力與數(shù)據(jù)的規(guī)則制度必須在人工智能治理的框架下統(tǒng)籌協(xié)調(diào)。二是法律層面上的統(tǒng)籌,將我國現(xiàn)行的有關(guān)數(shù)據(jù)、算法和人工智能問題的探索,統(tǒng)一納入未來人工智能的基礎(chǔ)性立法當(dāng)中。
翁音韻:新技術(shù)的出現(xiàn)可能會出現(xiàn)更細(xì)分領(lǐng)域的法律無法第一時間跟進(jìn)對其規(guī)范的問題,但法律是分層級、分類型的,并不意味著新技術(shù)的出現(xiàn),就一定會出現(xiàn)法律真空。如近期國家互聯(lián)網(wǎng)信息辦公室起草的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,就是要進(jìn)一步促進(jìn)生成式人工智能技術(shù)的健康發(fā)展和規(guī)范應(yīng)用。當(dāng)然,如果在當(dāng)前法律體系逐步完善的前提下,對于確實(shí)觸犯刑法的人工智能技術(shù)使用行為,在現(xiàn)有刑事法律體系通過擴(kuò)大解釋仍不能解決其法律適用問題時,個人認(rèn)為,有必要通過刑事立法予以規(guī)制。
記者:目前,我國網(wǎng)絡(luò)安全的保障主要依靠技術(shù)升級和相關(guān)的法律法規(guī)等。在人工智能技術(shù)應(yīng)用如此普遍的情況下,普通民眾應(yīng)該如何做好自我保護(hù)和有效防范?
張凌寒:一方面,應(yīng)當(dāng)提升自身甄別信息真?zhèn)蔚哪芰ΑR訡hatGPT為代表的生成式人工智能基于海量數(shù)據(jù)生成合并結(jié)果,可達(dá)到從無到有、以假亂真的效果。這就要求用戶既要對通過生成式人工智能互動獲取的信息進(jìn)行人工甄別和交叉驗(yàn)證,又要有意識地分辨社交媒體平臺上所發(fā)布新聞信息的真實(shí)性,有效甄別虛假新聞,理性參與輿論表達(dá)。另一方面,應(yīng)當(dāng)提升個人信息、隱私安全的防護(hù)意識。人工智能技術(shù)的訓(xùn)練數(shù)據(jù)主要來源于互聯(lián)網(wǎng),其中可能包括個人隱私數(shù)據(jù),而此前ChatGPT-2就發(fā)生過隱私泄露的問題。因此,用戶在使用生成式人工智能等具有一定通用性質(zhì)的新式人工智能技術(shù)時,要不斷提升安全防護(hù)意識,避免個人信息或隱私泄露。
翁音韻:一方面,普通民眾應(yīng)對人工智能技術(shù)下所產(chǎn)生的如圖片、視頻等產(chǎn)物的真實(shí)性不斷加強(qiáng)信息甄別意識及能力。在面對人工智能換臉等相關(guān)技術(shù)運(yùn)用下的圖片等信息時,一定要注重甄別信息內(nèi)容的來源渠道以及它的客觀性、真實(shí)性和準(zhǔn)確性,切記不盲從、不盲信、不盲轉(zhuǎn)發(fā)一些所謂的小道消息或營銷號等自媒體消息。另一方面,普通民眾應(yīng)當(dāng)對人工智能技術(shù)所產(chǎn)生的技術(shù)風(fēng)險有所防范,尤其要注意涉及個人生物識別的信息安全。對于涉及人臉識別、人聲識別、指紋、瞳孔等生物識別信息時,需要充分了解信息的采集、使用與存儲流程以及信息采集目的的必要性和使用情況,謹(jǐn)慎使用生物識別信息。如果發(fā)現(xiàn)可能存在泄露個人生物識別信息隱患,或者已經(jīng)發(fā)現(xiàn)具有泄露生物識別信息的,應(yīng)及時向有關(guān)監(jiān)管部門反映和舉報。
[版面見習(xí)編輯:高航] [責(zé)任編輯:劉蕊]關(guān)鍵詞:
關(guān)于我們 廣告服務(wù) 手機(jī)版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com