塞维利亚vs皇家贝蒂斯:機器算法能帶來公平嗎? - 塞维利亚足球队厉害吗|皇马vs塞维利亚
瞭望智庫

2016年5月12日   星期四   丙申年   四月初六

設為首頁 | 加入收藏夾           塞维利亚足球队厉害吗 | EN

塞维利亚vs皇家贝蒂斯:機器算法能帶來公平嗎?

塞维利亚足球队厉害吗 www.uorwyt.com.cn 云賀 | 瞭望智庫助理研究員

發布日期:2019-08-12

數據存在的“偏見”經由算法系統讀取和分析,不僅會被完整地記錄和學習下來,甚至還會被放大,使之刻板化。

如今,機器算法越來越深入地滲透到人類社會的諸多方面,輔助人們做出各種決策。在廣告投放、司法審判、人才雇傭等領域,機器算法都扮演著重要角色。

相對于人腦,機器算法具有效率高、中立性等諸多優勢。然而,機器算法能帶來一個更公平的世界嗎?

今年7月,蘭德公司的六位研究員聯名發布名為《算法公平——社會應用框架》的報告,梳理了金融、司法領域的諸多典型案例,系統闡述了機器算法的功與過。報告認為,以如今的技術水平來看,機器算法往往帶有刻板“偏見”。

算法科學性遭質疑

當前,機器算法已經滲透到人類現代生活的方方面面。有時候,甚至連人類自己都沒意識到是機器在輔助整個社會做出決策?;魎惴ǘ雜諤岣呔霾咝屎拖宋縭擁娜酚興?。但近些年來,機器算法也惹出了一系列麻煩,其科學性和公正性屢遭公眾質疑。

2013年5月,德國聯邦法院判定,谷歌搜索的“自動填充”功能含有誹謗性搜索提示,侵犯了公民權利。事件源自德國一家化妝品業的企業家,其在谷歌搜索中輸入自己名字時,文本框下方會自動顯示“山達基教”和“欺詐”等詞匯。原告認為,谷歌的這一功能侵犯了個人權利,損害了企業聲譽。

最終,聯邦法院雖然裁定“自動填充”功能在原則上并無問題,但如果發生類似的侵犯個人權利或損害名譽的事件,運營商應承擔相應責任并作出賠償。

基于機器算法的谷歌搜索提示,可能來自媒體的錯誤報道或未經核實的言論。但無論如何,這一案件暴露出機器算法的“偽中立性”,即它并不一定能夠正確反映事實。

另一個案例,來自微軟在網絡社交平臺上推出的機器人——Tay。Tay的運作原理是在和大量用戶聊天過程中,不斷攝取和分析數據,從而學習人類交談方式。而這一特點也使得用戶有可能“教壞”算法。結果是,Tay上線不到24小時,就變成了一位滿口臟話并帶有種族歧視的機器人。

“偏見”加劇社會不公

那么,機器算法為什么會出錯?

首先,算法歧視有可能來源于“有偏見”的數據。眾所周知,機器學習模型的構建,在很大程度上取決于訓練機器時讀取的數據。然而,一旦基礎數據出現哪怕細微的偏差,就可能會導致整個模型出現結構性偏差。上文中微軟聊天機器人的案例就說明了這一點。

更值得注意的是,數據存在的“偏見”經由算法系統讀取和分析,不僅會被完整地記錄和學習下來,甚至還會被放大,使之刻板化。

對此,蘭德的報告以金融和司法領域為例,說明了算法“偏見”是如何加劇社會不公平現象的。

在美國金融借貸行業,機器算法越是強大,被打上“低收入”“高風險”“少數族裔”或特點地區等標簽的群體,在辦理金融服務時難度就越大。不僅如此,算法還可能會將這部分人群與高息貸款項目進行自動匹配。美國聯邦貿易委員會就曾在一次調查中發現,基于機器算法的廣告商們,會更多地將高息貸款的相關信息自動推介給低收入群體。

蘭德的研究員們認為,一旦金融領域的算法系統自動篩掉被精細標簽化后的部分企業和人群,包括小微企業、貧困人群、殘疾人、少數族裔等,將對社會公平秩序造成極大危害,導致貧富兩極分化愈演愈烈。

在司法領域,機器算法同樣有可能侵犯社會公平原則。一個最著名的案例就是2016年發生的“盧姆斯案”。

彼時,威斯康辛州法院提起公訴,指控盧姆斯犯有危及社會安全等五項罪名。在量刑調查環節,法院適用了一款名為COMPAS的算法模型。COMPAS是一種基于大數據識別罪犯風險的評估工具。具體來說,COMPAS會根據被告檔案中的信息,對其再次犯罪的可能性進行風險評估,從而為法院在收監、量刑等環節提供決策支持。

但盧姆斯認為,法院使用COMPAS進行量刑評估,打破了正當司法程序,特別是由于該算法本身的不透明性,其決策的科學性和準確性都有待檢討。因此,他對量刑結果提出異議,向州最高法院上訴。

“盧姆斯案”反映出的,是機器算法技術在輔助決策時存在的“黑匣子”問題。由于讀取數據龐大、算法系統復雜,有時可能連技術設計者都不知道機器將如何做出決策。因此,想要在技術層面辨別算法是否存在歧視是很困難的事。

各國展開“糾偏”行動

從根源上來看,算法的“偏見”在很大程度上并非來自機器本身,而是機器在學習人類語言或決策過程中,吸收了人類社會中根深蒂固的文化觀念,或是錯誤的價值導向,并將這種傾向以技術方式進行強化。

但無論如何,人工智能時代已經來臨,全球智能化的浪潮不可遏制。在這種情況下,如何為算法糾偏成為重中之重。

實際上,當前各國政府和企業已就此展開行動。

在我國,國務院在《新一代人工智能發展規劃》中提出“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”,為未來智能化社會劃出了法律和倫理道德的邊界。

今年4月,美國國會議員提出一項名為《2019年算法問責法》(Algorithmic Accountability Act of 2019)的法案,要求科技公司審查在其技術應用中,是否存在種族、性別或其它方面的歧視和偏見傾向。

在某些特定領域,監管機構也開始為算法“劃紅線”。例如,自動駕駛車輛會針對不同事故場景作出決策判斷,確定相關事物的安全優先級。2017年5月,德國聯邦交通和數字基礎設施部下設的倫理委員會,公布了全球首套自動駕駛倫理準則。該準則明確:人類生命擁有最高優先權,并始終優先于動物以及其他財產等。

蘭德公司的研究員們認為,除了在監管層面設立“算法審計”環節,機器算法要想維護公正和道德原則,還可在技術層面以擴大樣本量、調整算法變量等方式進行優化。

此外,提高機器算法運作方式的透明度也十分必要,這可以有效避免算法“黑匣子”現象出現。(完)

來源:瞭望智庫

版權所有,未經授權不得轉載

瞭望智庫緊扣“國家政策研究、評估和執行反饋”這一核心業務定位,利用新華社內外智力資源, 連接全球主要智庫,服務中央決策和新華社調查研究,發揮政治建言、理論創新、輿論引導、社會服務、公共外交等功能, 在社會上形成廣泛的知名度和影響力。

學術合作:韋薇 [email protected]

商務合作:陳晶 13910894987 趙沁珩 15201538826

通訊地址:北京市東城區永定門西濱河路8號中海地產廣場東塔16層.100077

客服郵箱:[email protected]

?2015 瞭望智庫(北京)科技發展有限公司 京ICP備10031607號-3