人工智能在不斷發(fā)展的同時,其背后算力的消耗也十分驚人。有統(tǒng)計顯示,谷歌公司研發(fā)的伯特預訓練語言模型,擁有3.4億個數(shù)據(jù)參數(shù),而訓練它一次所需的電力足夠一個美國家庭使用50天。
承載了人類未來大夢想、大可能和巨大挑戰(zhàn)的人工智能, 火了這么些年,取得了長足的發(fā)展,與之相輔相成的,是人工智能日益“龐大”的架構(gòu)體系,諸如常以十億計的計算單位,龐大的云計算數(shù)據(jù)中心……越來越“大”是人工智能的現(xiàn)實與未來嗎?
近日《麻省理工科技評論》公布年度十大突破性技術(shù)排行榜,微型人工智能技術(shù)(Tiny AI)位列其中。從大到小,難道是人工智能正在“返璞歸真”的途中?
不可持續(xù)的“大”人工智能
我們都知道,隨著研究人員不斷給算法“喂養(yǎng)”大量數(shù)據(jù),機器學習變得越來越聰明,但它們是否也變得更環(huán)保呢?答案是否定的。
不可否認,人工智能在過去幾年中取得了許多突破。深度學習是許多人工智能系統(tǒng)實現(xiàn)高精度的突破之一。研究人員發(fā)現(xiàn),雖然人工智能每一天都在變得更加精確,但同時也帶來了隱藏的環(huán)境代價。
“當前人工智能攜帶著龐大的數(shù)據(jù)集被輸入到云數(shù)據(jù)中心,然后由無窮無盡的算法進行分析。”威海北洋電氣集團股份有限公司副總工程師秦志亮表示,數(shù)據(jù)上傳到云中心的過程,以及通過復雜的算法結(jié)構(gòu)和精巧的訓練方式獲得高精度的算法模型,不僅會產(chǎn)生驚人的碳排放量,而且限制了算法模型的運行與部署速度,同時帶來很多隱私問題。
美國馬薩諸塞大學阿默斯特分校研究人員的一項研究結(jié)論對秦志亮的說法提供了佐證。他們通過揭示算法訓練的能量強度發(fā)現(xiàn),訓練一種算法產(chǎn)生的二氧化碳排放量相當于一輛普通汽車終生二氧化碳排放量的5倍,或者相當于飛機在紐約和舊金山之間大約300次的往返飛行。研究人員認為,在尋求人工智能高準確性的過程中,人們似乎失去了對能源效率的關(guān)注。
事實上,“大”人工智能也不適合離線和實時決策,比如自動駕駛解決方案,且日益依賴于巨大的能量、巨大的帶寬,這種模式在經(jīng)濟和生態(tài)上同樣具有不可持續(xù)性。
另外,更讓研究人員擔心的是,這一趨勢還可能加速人工智能研究集中到少數(shù)科技巨頭手中,在學術(shù)界或資源較少的國家,資源不足的實驗室根本沒有辦法使用或開發(fā)計算成本昂貴的模型。
去中心化或是未來趨勢
人工智能雖已融入大眾生活,但最終的成功還要取決于“落地”,實現(xiàn)大規(guī)模商用,這應該是推動微型人工智能發(fā)展的直接原因。
“為了實現(xiàn)人類對人工智能遠大的夢想,我們必須從小處著想,甚至很小。云數(shù)據(jù)主導的趨勢正在轉(zhuǎn)變,未來的人工智能環(huán)境將是去中心化的。”海南普適智能科技有限公司CEO陳嘯翔說。
海南中智信信息技術(shù)有限公司總經(jīng)理于建港認為,“這是一條與計算機發(fā)展相反的路徑,計算機的發(fā)展經(jīng)歷了從個人終端,然后到互聯(lián)網(wǎng)化、虛擬化的過程。而微型人工智能是先互聯(lián)網(wǎng)化、虛擬化,再終端化。”
以伯特(Bert)為例。伯特是谷歌公司高級研發(fā)科學家雅各布·德夫林(Jacob Devlin)和他的團隊開發(fā)的預訓練語言模型(PLM),它可以理解單詞和上下文,可以為寫作提出建議或獨立完成的句子?!堵槭±砉た萍荚u論》報道中稱,伯特擁有3.4億個數(shù)據(jù)參數(shù)。此外,訓練它一次所需的電力足夠一個美國家庭使用50天。
華為研究人員則發(fā)表文章稱,他們制作了微型伯特(Tiny Bert)模型,尺寸比伯特縮小7.5倍,速度還快了近10倍。來自谷歌的研究人員也發(fā)表文章說,他們已經(jīng)造出了一個比伯特小了60多倍的版本,但其語言理解能力略差于華為的版本。
華為和谷歌他們是如何做到的?其實,這兩家公司都使用了一種常見的壓縮技術(shù)的變體,這種技術(shù)被稱為“知識提取”,可以讓想要縮小的大型人工智能模型去訓練其圖像中的小得多的模型,類似于老師訓練學生。
我們可以這樣理解,微型人工智能應是人工智能研究界為縮小算法規(guī)模所做的努力。這不僅是減少模型的大小,而且還加快推理速度,保持了高水平的準確性。此外,還可以在邊緣部署小得多的算法,無需將數(shù)據(jù)發(fā)送到云,而是在設備上進行決策。
三個方面縮小現(xiàn)有模型
微小數(shù)據(jù)、微小硬件、新型材料、微小算法,微型人工智能是一種綜合方法,涉及數(shù)據(jù)、硬件和算法的共同開發(fā)。
如何在不明顯影響模型準確度的前提下,縮小現(xiàn)有的深度學習模型,秦志亮認為,可以從三個方面著手。一是硬件方面的邊緣端計算,二是算法方面的模型簡化,三是數(shù)據(jù)方面的小樣本訓練。
無論是新技術(shù)還是新理念,大眾的關(guān)注點還是其在市場上的普及率,特別是產(chǎn)品量產(chǎn)與應用。
“微型人工智能具體落地場景包括語音助手、數(shù)字化妝等,涉及到即時場景理解,邊緣端目標檢測等技術(shù);此外,微型人工智能也將使新的應用成為可能,比如基于移動端的醫(yī)學影像分析,或?qū)Ψ磻獣r間要求更快的自動駕駛模型的開發(fā)。”秦志亮說。
“現(xiàn)在微型算法一般在幾百兆到幾個G,完全可以裝在到手機上。”于建港說,微型人工智能可以應用在所有需要前端控制的應用上,即使5G已加速覆蓋了,網(wǎng)絡時延降低,但是像工控、自動駕駛、航天等需要快速反應的應用,都需要本地部署人工智能算法。他認為,將來的業(yè)務形態(tài)應該是終端做出簡單快速的反饋,服務器做出重大決策。
在2019年年底的安博會上,已有人工智能初創(chuàng)企業(yè)推出“Tiny AI”,該公司將低功耗、小體積的NPU與MCU整合,適配市場上各種主流的2D/3D傳感器,滿足2D/3D圖像、語音等識別需求的AI解決方案受到了業(yè)界的關(guān)注。此外,英偉達(NVIDIA)和華為等公司,也都陸續(xù)推出了終端型圖形處理器,體型較小、功耗較低、功能可以滿足簡單的算法。
技術(shù)初期期待寬松發(fā)展環(huán)境
微型人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私等問題也同樣引起人們的關(guān)注。
秦志亮擔心的問題有兩個。一是算法歧視可能激增。他說,算法歧視之所以難以解決,歸根結(jié)底在于算法的可解釋性與訓練數(shù)據(jù)的不均衡,相比于傳統(tǒng)的云端訓練,微型人工智能的訓練數(shù)據(jù)集樣本較少,數(shù)據(jù)的分布可能更加偏頗。另一個隱患是數(shù)據(jù)偽造的影響。GAN(Generative Adversarial Network)和深度偽造技術(shù)為代表的視頻與圖像技術(shù)一直是人工智能算法研究的熱點。隨著這些技術(shù)的普及,未來的用戶端極有可能接收或產(chǎn)生大量的虛擬偽造數(shù)據(jù)。微型人工智能受限于計算力的制約,在分散式網(wǎng)絡架構(gòu)中,如何有效地甄別這些偽造數(shù)據(jù),這很可能是一個隱患。
于建港則認為,微型人工智能會導致分布式人工智能的興起,每個終端都成為一個AI節(jié)點,各自都能獨立存活,出現(xiàn)類似區(qū)塊鏈的應用。網(wǎng)絡側(cè)的控制力度將降低,政府的管控風險加大。不過,技術(shù)都是兩面性的,于建港分析,雖然有這些風險,但是對人工智能的管控技術(shù)也在發(fā)展,應該相信微型人工智能的正面作用,不應該在技術(shù)初期就限定太多條條框框。(王祝華)
關(guān)于我們 廣告服務 手機版 投訴文章:39 60 2 914 2@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網(wǎng) 版權(quán)所有 聯(lián)系網(wǎng)站:39 60 2 914 2@qq.com