在業(yè)內(nèi)有“人工智能教父”之稱的計算機科學家杰弗里·辛頓(Geoffrey Hinton)周一在社交媒體上證實,他上周已經(jīng)離開谷歌。辛頓在過去的十多年里幫助谷歌開發(fā)AI技術(shù),但他現(xiàn)在成為了人工智能最新的“末日預言者”。
辛頓在Twitter上澄清,離開谷歌并不是為了批評谷歌?!皩嶋H上,我離開是為了談論人工智能的危險,而不用去考慮這對谷歌有何影響?!彼麑懙?,“谷歌的行為非常負責任?!?/p>
辛頓坦言他對人工智能的擔憂,并說道:“現(xiàn)在似乎還很難看到如何能夠防止壞人利用人工智能來做壞事?!?/p>
(資料圖片僅供參考)
辛頓在神經(jīng)網(wǎng)絡方面的開創(chuàng)性工作塑造了為當今許多產(chǎn)品提供動力的人工智能系統(tǒng)。由于對神經(jīng)網(wǎng)路研究的貢獻,辛頓與法國計算機科學家楊立昆(Yann LeCun)、加拿大計算機科學家約書亞·本希奧(Yoshua Bengio)共同獲得了2018年的圖靈獎。
去年年底,以微軟、谷歌為代表的科技巨頭公司圍繞AI大模型展開了新一輪的“軍備競賽”,IBM、亞馬遜、百度和騰訊等企業(yè)也在研究類似的技術(shù)。
隨著辛頓的離職,他以更明確的態(tài)度加入了AI批評者的行列。批評人士認為,這些科技公司積極開展基于生成式人工智能(AIGC)的產(chǎn)品開發(fā)活動,“這是在與危險賽跑”。
辛頓表示,他現(xiàn)在甚至有些后悔一生從事AI的開發(fā)工作?!拔医?jīng)常這樣安慰自己,就算我沒有從事這些工作,也會有別人去做?!彼f道。
現(xiàn)年75歲的辛頓終身從事學術(shù)研究,他對人工智能的信仰推動了他的職業(yè)生涯。辛頓曾是卡內(nèi)基梅隆大學的計算機科學教授,但因為不愿接受五角大樓的資助而離開大學前往加拿大。美國大多數(shù)AI項目都由國防部資助,而辛頓強烈反對在戰(zhàn)場上使用人工智能。
2012年,辛頓與他在多倫多的兩名學生建立了一個神經(jīng)網(wǎng)絡公司,可以分析數(shù)千張照片并自學識別常見物體,例如花、狗和汽車。谷歌后來斥資4400萬美元收購了該公司,其中一名學生Ilya Sutskever后來成為了OpenAI的首席科學家。
辛頓長期堅信,神經(jīng)網(wǎng)絡是機器理解和生成語言的一種強大方式,但它不如人類處理語言的方式。然而,隨著去年谷歌和OpenAI使用大量數(shù)據(jù)構(gòu)建系統(tǒng),誕生了Bard和ChatGPT這樣的AI聊天系統(tǒng),辛頓的觀點發(fā)生了變化。盡管他仍然認為這些系統(tǒng)在某些方面不如人腦,但它們在其他方面可以使人類智能黯然失色。
從AI的開創(chuàng)者到“末日預言者”,辛頓的離職標志著科技行業(yè)在幾十年來最重要的轉(zhuǎn)折點。人工智能行業(yè)領導者相信新的AI系統(tǒng)可能與上世紀90年代初引入的網(wǎng)絡瀏覽器一樣重要,并可以引發(fā)從藥物研究到教育等領域的顛覆式突破。
但困擾許多業(yè)內(nèi)人士的是,他們擔心人工智能正在向“惡的一面”釋放“危險信號”,生成式人工智能已經(jīng)可以成為散播錯誤信息的工具,并對一些工作構(gòu)成威脅。而科技界最大的反對聲音則認為,AI可能在未來的某個時間點對人類構(gòu)成威脅。
隨著科技巨頭公司不斷改進他們的AI系統(tǒng),辛頓認為,這些系統(tǒng)正在變得越來越危險?!爸钡饺ツ?,谷歌一直被視為是人工智能技術(shù)的’管家’,小心翼翼地不發(fā)布可能造成傷害的東西。”辛頓表示,“但現(xiàn)在微軟已經(jīng)通過聊天機器人增強了Bing搜索引擎,并挑戰(zhàn)谷歌的核心業(yè)務,科技巨頭陷入了一場可能無法停止的競爭?!?/p>
今年3月,億萬富豪馬斯克聯(lián)合上千名技術(shù)領袖和研究人員簽署了一封公開信,呼吁暫停GPT模型新系統(tǒng)的開發(fā),并認為AI技術(shù)將給“社會和人類帶來深遠的風險”。
辛頓并不在聯(lián)名者之列,他當時仍為谷歌供職。上個月,辛頓通知公司他要辭職,并在周四與谷歌CEO桑達爾·皮查伊(Sundar Pichai)通了電話,不過他拒絕公開討論他與皮查伊談話的細節(jié)。
皮查伊近期也在美國哥倫比亞廣播公司“60分鐘”的采訪中公開談論人工智能的倫理問題。他說道:“社會尚未為人工智能的快速發(fā)展做好準備?!彼€警告稱,人工智能的后果將影響“每家公司的每一種產(chǎn)品”。
“所有公司的產(chǎn)品都將受到人工智能快速發(fā)展的影響,社會需要為已經(jīng)推出的技術(shù)做好準備。”皮查伊說道,“我們的適應速度與技術(shù)發(fā)展的速度相比,似乎還不太匹配。”
他強調(diào)虛假信息、假新聞和圖像帶來的問題遠比人們想象的要大得多,它可能造成傷害。他還稱,聊天機器人有一個“黑匣子”,“在那里,你不完全理解它為什么或如何做出某些回應。”皮查伊說道。
但谷歌負責技術(shù)和社會業(yè)務的高級副總裁James Manyika回應稱:“Bard沒有知覺,也沒有自我意識,但它可以表現(xiàn)得很像有意識的人。”
對于辛頓的離職,谷歌首席科學家杰夫·迪恩在一份聲明中表示:“我們?nèi)匀恢铝τ趯θ斯ぶ悄懿扇∝撠熑蔚膽B(tài)度。我們不斷學習并了解AI新出現(xiàn)的風險,同時也大膽創(chuàng)新?!?/p>
辛頓最擔心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“無法再辨別真假”。此外,辛頓還擔心人工智能技術(shù)的“未來版本”會對人類構(gòu)成威脅,因為“它們經(jīng)常從分析的大量數(shù)據(jù)中學習到意想不到的行為”。
“這會成為一個問題,因為如果AI系統(tǒng)被允許不僅可以生成自己的計算機代碼,而且實際上可以自己運行該代碼,這就會變得非常可怕?!毙令D表示。他甚至擔心有一天真正的“自主武器”會成為現(xiàn)實,這些“武器”就好像是戰(zhàn)場上的“機器人士兵”。
“這種東西實際上可以擁有比人類更聰明的想法?!彼f道,“但大多數(shù)人認為這還很遙遠,我也曾認為這是30年到50年甚至更長的時間才會發(fā)生的,但顯然,我不再這么想了?!?/p>
谷歌與微軟和其他公司之間的競爭將升級為一場全球競爭,如果沒有全球的監(jiān)管,這種競爭將不會停止?!白詈玫那闆r是世界領先的科學家在控制技術(shù)的方法上進行合作。我認為他們在了解人類是否能夠控制AI之前,不應該繼續(xù)擴大規(guī)模?!毙令D表示。
美國參議院多數(shù)黨領袖舒默近期發(fā)起一項針對人工智能的治理框架,并聘請了頂尖的人工智能專家進行咨詢。該計劃將側(cè)重于建立人工智能系統(tǒng)的透明度,并要求獨立專家在公開發(fā)布之前測試人工智能技術(shù),并要求披露參與技術(shù)開發(fā)的人員、地點和方式。
谷歌也已經(jīng)發(fā)布了一份概述“監(jiān)管人工智能建議”的文件,并提出“社會必須迅速適應監(jiān)管、建立起懲罰濫用人工智能行為的法律和各國之間的條約,以確保人工智能對世界安全,并確保與人類價值觀保持一致的規(guī)則”。
關鍵詞:
關于我們 廣告服務 手機版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:435 226 40@qq.com