近幾個月內,京東、阿里、騰訊、愛奇藝等互聯網大廠“裁員”的詞條頻頻沖上熱搜。被裁的人心是涼透的,被裁邊緣的人心是不安的,一邊尋找退路,一邊還要擔心“退路”有可能被提前曝光。
就在今年年初,知乎被曝出,利用網絡行為感知系統監控員工離職傾向,從而實現“精準”裁員。盡管知乎第一時間否認了這一說法,并表示今后也不會啟用類似軟件工具,但是,離職傾向分析服務確實存在,一時引發了網絡熱議。
在大數據治理時代,企業對效率、精確、標準化的追求,轉化為了對個體施加嚴格控制的力量。這將如何影響社會的未來?我們能反抗大數據治理嗎?
“上班摸魚”能被監控嗎?
知乎事件的起因,來自一張網傳的系統后臺圖片,上面清楚顯示了一名員工訪問求職網站次數、投遞簡歷次數,以及含關鍵詞的聊天記錄數量。
很快,許多網友和媒體都找到了相關的網絡分析系統“行為感知系統BA”,以及研發這一系統的公司深信服,并從公司客服處確認了這套系統可以用于對員工在單位網絡內的網站訪問記錄進行分析,支持做離職傾向分析。
有媒體據天眼查結果發現,深信服在2018就申請了相關技術專利—— 一種離職傾向分析方法、裝置、設備及存儲介質。
目前,記者在深信服官網已經無法找到“行為感知系統BA”介紹和案例,但存在“全網行為管理AC”服務,主要是感知終端違規接入、上網違規行為、敏感數據泄密等內部風險。在“解決方案”一欄中包括了上網行為管理,涉及全面識別與管控網絡中與工作無關的應用,提高工作效率,并無離職分析相關內容。
事件發生后,網友直指企業商業道德問題,再次引發了對網絡數據挖掘分析突破隱私保護底線的擔憂。
香港大學法學教授雷蒙德·瓦克斯在牛津通識讀本《隱私》中提到,在“數據保護原則”中為首的,就是個人數據只能以合法和公平的方式收集。這就要求數據使用者向數據主體通報使用數據的目的、可向其傳輸數據的各類人員、數據主體提供數據是自愿的還是強制的、未能提供數據的后果,同時數據主體有權請求訪問和更正個人數據。
換句話說,分析技術本身并沒有直接對隱私安全產生威脅,但如果企業是在員工并不知情的情況下,獲取數據、分析數據,并針對結果采取了相應的措施,這就涉嫌違法。
知乎否認了使用該系統,但目前企業監控員工上網情況的行為并不罕見,比如監控員工“上班摸魚”。
去年11月16日,國美內部通報了員工看視頻、刷抖音、聽音樂等“摸魚”行為,并給予相關處罰。國美總部也承認對員工非工作流量信息進行了監測、統計,識別員工是否在工作區域內占用公司公共網絡資源從事與工作無關事宜。但其并未回應,企業是否將監控事宜事先告知員工,并得到員工同意。
“將現代科技的成果用于社會公共事務當中,以提高整個社會運行的效率是一種普遍現象,這叫技術治理。”中國人民大學哲學院教授劉永謀在接受《中國科學報》采訪時表示,技術治理從來都不是完美的利器。
控制與操控的界限在哪兒?
隨著物聯網、大數據、云計算和人工智能等智能技術的興起,用數字來測量、預測、規劃和控制社會的理想有了實現的可能。可以說,人們正面臨一個大數據治理時代。
“在這樣一個時代,企業日益熱衷于對勞動者的標準化、數字化認知。它產生的原因無非是希望節省人力成本,追求更高的效率。”劉永謀直言。
“從工具意義上說,企業正在把勞動者作為一種純粹的人力資源,而不是一個完整的人。盡管從效率角度有其合理性,但卻是一種片面的合理性。”劉永謀說,因為它會產生隱私侵犯、數據歧視、霸權等風險。這些問題并非從無到有,而是在大數據治理時代被放大了。
大數據治理時代,到底會如何影響人類社會的未來?這個問題一直備受關注。劉永謀認為,目前主要存在兩種比較極端的看法。
一種充滿了樂觀態度,認為它可以讓我們向一個更加“整合、靈活、全面的政府”的方向前進,整個社會將像發條裝置一樣精確運行,符合理性、邏輯與公平。
另一種,則以美國哈佛大學商學院教授肖莎娜·祖博夫所謂的“監控資本主義”為代表。她認為,由于政府與企業能夠通過數據的監測與分析,充分地了解個體并預測個體的行為,他們就掌握了對個體施加嚴格控制的力量,以大數據算法塑造人類的行為。
前者的“數據烏托邦”思維已經很難得到人們的認可,但劉永謀也不支持后者過度強調“控制”的負面效應。
所有的政治秩序都建立在協調、合作和控制的基礎之上,缺乏三者中的任何一個,組織集體生活都是不可能的。因此,大數據治理并不單單服務于控制,它同樣在社會協調、合作方面起到了積極作用。
“人們不必對‘控制’二字過分緊張和排斥。”劉永謀表示,“自人類文明出現,就有了控制,教育、宗教都帶有控制性。如果沒有控制,人類社會依舊是野蠻狀態。”
“問題的關鍵在于,控制要有度,超過了適度范圍就會變成操控。因此,在大數據治理中,我們需要關注的核心是,在具體的語境當中辨析控制和操控之間的界限在哪里,這才是比較好的解決問題的路徑。”劉永謀談道。
你并非完全被動
大數據治理時代,由于算法似乎越來越具有自主的、難以控制的力量,帶來了監視一切、預測一切的可能,容易引發公眾的信任危機。但劉永謀告訴《中國科學報》,在已經展開的大數據算法與社會信任之間的博弈中,公眾并非是完全被動的。
上海交通大學科學史與科學文化研究院助理教授沈辛成在《人工智能與價值觀》一書中分享了一個案例。早在2014年,亞馬遜開發了一套人力資源管理系統。這套系統用人工智能來分析篩選求職簡歷,通過給求職者打分,在一百份簡歷中篩選出“最好”的五位,直接錄用。但一年以后問題就出現了,這套算法工具基于的數據是亞馬遜此前十年的員工資料,基礎數據本身存在性別不平衡,于是算法分析歸納后得出了一個帶有偏見的結論:男員工比女員工更可靠。
缺陷一經暴露,立刻引起了人們的道德不適,引發了社會的強烈質疑和反思。而這種公共情緒和輿論反抗,也隨之產生了積極的意義。亞馬遜的“翻車”使得這項技術停止在公司使用,還有咨詢公司在相關報告中提出了技術改進方式,比如,不向算法提供員工個體生理、文化屬性等,避開帶有傾向性的價值判斷。
同樣,國內也有比較成功的案例。
就在去年,人們逐漸意識到日常生活正在被“算法推薦”所操控,受困于一個個“信息繭房”之中。中國人民大學新聞學院教授彭蘭就曾撰文《算法社會的“囚徒”風險》。許多年輕人也從自身做起,開啟了對抗算法推薦的實踐,豆瓣還成立了“反技術依賴”小組。
這樣的輿論氛圍生成了一股對抗算法的合力。從結果來看,2021年8月20日,第十三屆全國人大常委會第三十次會議審議通過的《中華人民共和國個人信息保護法》中,就包含了對算法推薦這類“大數據殺熟”問題的相關規定。第24條規定,通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供拒絕的方式。
就在今年1月4日,中國網信網發布了國家網信辦等多部門聯合修訂的《互聯網信息服務算法推薦管理規定》,要求不得根據消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實施不合理的差別待遇。
這一切都意味著,利用大數據“殺熟”或將成過去式。
這也符合劉永謀所思考的大數據治理的合理的規則設計,即增加公眾的參與、反饋,應該成為技術、制度調整的依據。沒有一項技術、制度設計是一勞永逸的。
企業和政府都有責任
英國學者、執業律師杰米·薩斯坎德在《算法的力量》一書中提醒人們,過去科技公司只是在市場體系中運行并追求有限經濟利益的私人實體。它并不對廣大公眾負責,而是對它的所有者和利益相關者負責。但如今,它們成為了數據治理最重要的技術提供者,直接參與提供大量的社會公共服務,因此,它們的角色越來越像公共事業公司。
不僅如此,薩斯坎德認為,越來越多的權力集中在控制技術的科技公司手中。可以說,這些經濟實體第一次擁有了強大的政治力量。所以,如何約束它們的行為非常關鍵。
沈辛成提到,在美國,比起行政約束,龍頭企業們視開源共享和自下而上的行規約束為最好的管控手段。如果有足夠多的程序員和開發者能夠共同目擊、監督算法的制造,就能夠確保各大科技企業所開發的模型和算法是相對透明的。此外,邀請更多元的主體參與這一過程,盡可能保證高質量、高透明度的公平公正。
北京大學社會學系教授邱澤奇在《科技向善:大科技時代的最優選》一書中也做了相關問題的解答。在他看來,未來企業要和政府共同承擔規制責任,而不僅僅是產品責任。
科技產品的迭代速度遠遠快于工業時代產品的迭代速度,意味著用戶始終會面對新的科技產品,并不知道產品在什么時候產生負面效果。他認為,在這種情況下,公司要采取告知、引導、預防和解決等一系列措施。并且,這不是針對單一產品而言的,而是面向不同的科技產品,有一套解決問題的機制和策略。
他還提到,在未來科技產品研發時,可以更多地邀請專家參與,對一些問題進行前瞻性研究。這么做的優勢是,當最新科技產品推向市場的時候,不僅有來自企業的技術告知和引導,還有來自專家的社會評估,作為第三方來承擔科技行業與社會、政府之間的溝通橋梁的角色,提供預防式的建議和策略,而不是像現在這樣,等出現問題了才推出應急措施。
除此以外,邱澤奇也強調了政府責任。對于新出現的技術與應用,政府需要有比較深入和準確的了解,需要對它的社會影響有比較全面的評估。要達成這樣的目標,學界可以發揮很好的溝通和橋梁作用,還可以為企業在商業視角之外提供一個更為全面和客觀的社會視角。
不過,就現狀而言,他也指出,“第一是科技企業沒有對外開放,第二是學界對這些領域的研究還不太重視,不認為這是他們的責任。其實,很多新問題是理論創新的源泉。無論是理論創新還是解決實際問題,這樣的研究都非常值得去做”。
來源:《中國科學報》