一場新冠肺炎疫情,讓遠程辦公逐漸成為常態(tài)。釘釘、飛書、企業(yè)微信、zoom等視頻會議類軟件,很好地解決了遠程溝通問題。除了視頻會議軟件,另一種云監(jiān)工軟件也火了,這種AI軟件可以盯著你干活,看你是否“摸魚”,并給你打分。這款AI監(jiān)工軟件名叫Enaible,據悉,全員在家辦公期間,Enaible銷售尤其火爆,前來咨詢的公司數量是以前的4倍。但也有批評聲音表示,這款軟件會讓員工失去創(chuàng)造力和對于公司的忠誠度。
收集操作痕跡 可給工作效率評分
AI監(jiān)工有何神通能監(jiān)督員工們的工作,還能為員工打分?據介紹,Enaible軟件裝在員工的電腦里,并可以在后臺一直運行,收集員工工作中的細節(jié)數據后提供給公司。軟件使用了一個名為Trigger-Task-Time的算法,算法會根據郵件或者電話,來判斷員工要完成什么任務以及計算這些任務花了多長時間來完成,隨后算法會根據這些數據給員工的工作效率打分。
“我們使用的操作系統(tǒng),都會以日志的形式對應用軟件的操作流程進行記錄。打開哪個文檔、內容是什么、上網瀏覽哪些網頁都會留下使用痕跡。在計算機里面裝一個監(jiān)控軟件,賦予它操作系統(tǒng)里的很多權限,AI監(jiān)工就能把辦公中操作電腦所留下的各種數據收集起來,進行融合處理,形成計算機可理解的表達。”天津大學智能與計算學部教授韓亞洪解釋,因為AI監(jiān)工記錄下來的數據會有圖片、文字、視頻、音頻以及各種符號數據,因此會用到模式識別、自然語言處理、語音識別、數據挖掘、多模態(tài)數據融合等AI領域的最新技術。
“AI監(jiān)工最核心的部分不只是收集數據,其最大難度在于通過算法模型,對這些數據進行分析,從而做出正確的決策,也就是對員工的工作效率等進行打分。”韓亞洪解釋,這個算法模型的形成需要進行機器學習,具體說是監(jiān)督學習。監(jiān)督學習光有大量的數據是遠遠不夠的,必須要有很多專業(yè)領域知識的積累,這樣才能為數據本身和最后的正確決策建立起一個關聯(lián),形成有監(jiān)督的信息,也就是一條條有效的訓練數據。
“什么是有效的訓練數據?比如訓練機器識別動物,我們會找很多貓、狗的照片,不同品種、不同形態(tài),但是我們都必須為這些圖片標注上貓或者狗的名稱,這個標注就是正確決策,圖片和對應的標簽共同形成了一條有效的訓練數據。通過對大量有效數據的學習,機器就可以建立起一個算法模型,對圖片進行識別。”韓亞洪舉例說。
“生成Trigger-Task-Time的算法模型,領域內的專家知識和領域內的數據缺一不可。訓練這樣一個模型,需要有很多領域內的相關知識積累和儲備才能做到,并找到有效的知識融合方法。”韓亞洪分析,這才是成就AI監(jiān)工的核心關鍵。
據Enaible官網介紹,這家公司的創(chuàng)始人擁有20年的“CEO教練”經驗。也正是有這樣的職業(yè)背景,讓AI監(jiān)工軟件除了評判員工外,還有一個領導力推薦算法可以給老板們提供建議 ,自動找出員工工作中的問題、提高效率。
隱私無所遁形 AI被吐槽不近人情
AI監(jiān)工從誕生之初就伴隨著爭議,在不少員工眼里,AI監(jiān)工軟件正扮演著“飯碗殺手”的角色,而且是不近人情的。
員工們吐槽最多的就是“不被信任”“每分每秒被監(jiān)控,感到很可怕”……2019年4月末,亞馬遜就用數字監(jiān)控器追蹤發(fā)貨倉庫里揀貨工人們的工作速度,并管理和限制員工離開崗位的時間,然后自動生成解雇的指令。員工則被這種“看不見、卻無處不在”的“電子皮鞭”驅趕得疲于奔命,連喝水上廁所都不敢隨便去,更別提各種隱私無所遁形。
“AI監(jiān)工的存在引發(fā)了一個始終伴隨著人工智能發(fā)展的重要問題,那就是人工智能倫理問題。倫理是有界限的,超過一定的界限可能就涉及到法律問題了。”韓亞洪舉例說,比如無人駕駛汽車上路把人撞死了,這個法律責任該由誰擔負呢?這就是人工智能倫理問題。對于裝在電腦里的AI監(jiān)工,雖然員工在辦公,但電腦畢竟是私人的,監(jiān)控員工就有可能會涉及到個人的隱私數據。因此AI監(jiān)工的存在,首先要解決好人工智能倫理的問題。
還有很多員工質疑“AI監(jiān)工的決策是否能衡量員工的生產力”“評判的結果是否準確”……韓亞洪表示,這類軟件肯定會考慮到大多數辦公業(yè)務的情況,因此決策的結果大部分是準確的。但特殊情況肯定也是存在的,當機器遇到的是它從來沒碰到過的特殊情況時,算法可能也會給出不準確的評判。因為這種監(jiān)督員工工作效率的工作,即使由人來做,也有不準確的時候。
解決倫理問題 AI監(jiān)工或迎長遠發(fā)展
面對各種吐槽,Enaible公司也感到非常委屈,根據他們的統(tǒng)計,8小時工作制里,其實人們有產出的只有3個小時,美國每年有4000億美元被員工們的低效率損失掉。管理者本來就是要盯著員工干活,判斷他工作中的問題,這個過程換成AI也一樣。企業(yè)反正都要裁員,那不如精準地找出工作效率最低的人。
“Enaible公司的說法也有一定的道理,但是未來要全面使用AI監(jiān)工,首先需要厘清人工智能倫理與人工智能應用的關系。”韓亞洪提出自己的看法,只有捋順AI倫理問題,才能決定AI監(jiān)工是否能繼續(xù)使用。而讓員工和老板都認可,AI監(jiān)工才有可能發(fā)展下去。
“在技術層面,增加交互功能,對于完善機器算法模型將有很大的幫助。”韓亞洪解釋,當AI監(jiān)工部署到一個公司時,可能開始的時候,它的性能沒有那么好。而如果AI監(jiān)工的模型能設計成可交互的形式,并且在交互中能夠進化,它的能力就會在學習中再提升。就像我們上面提到的,如果遇到模型算法沒有遇到過的數據,就有可能出現(xiàn)決策錯誤。如果這時候,通過交互告訴機器正確的決策,那么下次再遇到同類問題,機器的算法模型就會舉一反三,給出正確的決策了。
“而且現(xiàn)實世界里,員工的工作狀態(tài)必然受其所處的社會、家庭和生活環(huán)境的影響,所以對員工的監(jiān)督和管理也不可能只用與工作有關的冰冷冷的數據。”韓亞洪表示,如果AI監(jiān)工能變得更人性化一些,也就是算法模型設計得更個性化一些,比如通過捕捉員工的表情、動作等方面的變化,并通過大數據的蛛絲馬跡去發(fā)現(xiàn)員工狀態(tài)、情緒、身體健康等方面的異常和變化,并且把這些數據也融入到模型算法的決策中去,這樣AI監(jiān)工最終的決策也許會讓人覺得更有人情味。
正如《麻省理工科技評論》援引英國律師科瑞的話,良好的工作環(huán)境,應該讓員工覺得自己的工作備受信任,而單純的監(jiān)控是無法做到這一點的。(記者 陳 曦)
關于我們 廣告服務 手機版 投訴文章:39 60 2 914 2@qq.com
Copyright (C) 1999-2020 www.w4vfr.cn 愛好者日報網 版權所有 聯(lián)系網站:39 60 2 914 2@qq.com