掃一掃下載界面新聞APP

AI智庫警告:計算機科學領域實現男女平等,還要100年

計算機科學研究和科技企業存在的性別差距是否會在現實中影響人們的生活,是很多人關心的問題。在人工智能行業中,由開發人員的性別、種族等差異造成的產品偏見被稱為算法偏見。

圖片來源:視覺中國

記者 | 劉芳

6月20日,由微軟聯合創始人艾倫(Paul Allen)創建的艾倫人工智能研究所(Allen Institute for Artificial Intelligence)發布報告稱,要想在計算機科學研究領域達到男女平等至少還要100年。

這份報告采集了計算機科學領域1970至2018年間刊登的287萬篇論文,并根據作者的姓名對其性別加以概率分析。2018年,計算機科學論文的男性作者約為47.5萬人次,而女性約為17.5萬人次。作為對比,報告還采集了1163萬篇醫學文獻的作者姓名,同時對作者的性別加以分析。

報告發現,即使在最樂觀的情況下,在計算機科學領域達到男女平等也要到2100年。如果現實一些的話可能需要更久的時間,甚至遙遙無期。而相比之下,預計30年之內就可消除生物醫學論文方面作者的性別差距。

計算機科學論文女性作者比率預測。來源:艾倫研究所

除此之外,不同性別作者之間的合作也低于預期。報告稱,雖然男性和女性都偏好與同性別作者合作,但女性的同性偏好度正在下降,而男性的同性偏好度在增加。

換言之,雖然計算機科學領域女性科學家的絕對數量在上升,近年來跨性別合作論文的案例數量也有所增加,但跨性別合作論文的比例卻在減少。

對此,科技媒體Gizmodo評價道,在性別平等方面,計算機科學領域不僅出現了落后,而且還在向錯誤的方向前進。

《紐約時報》認為,男女作者的巨大差距在一定程度上反映出計算機科學期刊的編輯群體可能存在男性偏見。

在接受采訪時,前華盛頓大學教授、艾倫研究所負責人埃齊奧尼 (Oren Etzioni) 說:“我們希望看到一個積極的結果,因為我們都意識到,(計算機科學論文)女性作者的數量正在增長。但坦率地說,結果令人震驚。”

更重要的是,由于性別不同,科學家們在計算機科學領域的關注焦點和解決問題思路也有所不同。艾倫研究所研究員王(Lucy Lu Wang)表示:“性別差距所構成的問題不僅體現在選擇什么數據訓練機器上,更體現在想要(使用AI技術)解決什么問題。”

艾倫研究所官網

目前,許多人工智能技術需要用大量數據訓練而成。計算機科學研究和科技企業存在的性別差距是否會在現實中影響人們的生活,是很多人關心的問題。在人工智能行業中,這種由開發人員的性別、種族等差異造成的產品偏見被稱為算法偏見。

例如,《哈佛商業周刊》數據顯示,語音識別正在成為一項迅速擴張的產業,預計在2030年市值將達到800億美元。但研究表明,語音識別在辨識高音調的女性聲音方面存在困難。即使是準確率最高的谷歌語音識別系統,男性聲音辨識準確率也比女性高出13%。

再比如,在微軟測試其一款評估貸款風險的產品時,由于所使用的已被批準的數據多為男性,因此算法清晰表明,男性可以更好地承擔貸款風險。

紐約大學AI Now Institute的創始人惠特克(Meredith Whittaker)在今年3月的一次峰會上表示,算法偏見最典型的例子是亞馬遜公司使用人工智能技術進行招聘。由于計算機模型使用的數據是過去10年亞馬遜收到的簡歷,而大部分申請人為男性。最終算法由此計算評論認為,男性是更好的求職者。

紐約大學AI Now Institute創始人惠克特。圖片來源:推特

對此,惠特克表示:“這是對簡歷中‘女性’這個詞的懲罰。如果你上的是一所女子學院,你的簡歷就會被自動吐出來。”她還說:“這不僅表明算法可以很容易地反映社會的偏見,而且這個結果更暴露了亞馬遜多年的歧視性招聘做法,很明顯亞馬遜缺乏多樣性。”

著名政治哲學家羅爾斯(John Rawls)曾在《正義論》中做過一個思想實驗,目的是推理出如何才能產生最公平的制度和決策機制。羅爾斯認為,人們只有在“無知之幕”下才能脫離社會偏見,進而推導出公平。所謂“無知之幕”,就是不以個人的性別、家庭、年齡、種族等作為決策的起點,而是最大化的將特定信息剝離。而目前人工智能領域仿佛還不能做到這點。

隨著人工智能技術的發展,人類將在越來越多的領域依賴其做出決策,如評估貸款風險、職場篩選簡歷等。而這項技術是否能夠最大程度脫離社會和歷史性偏見,實現公平將是未來人類最重大的挑戰之一。

未經正式授權嚴禁轉載本文,侵權必究。
表情
您至少需輸入5個字

評論 20

相關文章

江西快三走势图一定牛