MioTalk X Joanna Bryson:小心,機器人也有偏見

妙盈科技與Joanna Bryson教授共同探討了機器是如何反映人類的固有偏見,以及可能對社會產生的不利影響。

Joanna Bryson, 巴斯大學計算機科學系副教授2018-11-26

您在《有偏見的機器人》的論文中主要討論了什麼問題?

從根本來說,我想了解的是認知以及認知的演變。自我的論文發表以來,人們驚訝於機器也會有偏見。在固有思想中,機器必須是中立的和客觀的——這在某種意義上是正確的,機器沒有自己的觀點或倫理。但考慮到人工產物是人類文化的一個元素,它總是會反映我們的偏見。

來源:Dilbert

我認為這種」隱性偏見」可能是文化的一部分,讓我十分感興趣,這意味著文化是我們思考的一部分,可能帶領我們探索未知。

人們通常不認為這種「隱性偏見」存在於某個詞或或我們使用某個詞的時候,但研究表明偏見是確實存在的。能夠意識到這一點非常重要,因為它能告訴我們包括如何使用語言,如何學習偏見,如何學習語言,以及如何進化語言等方方面面。一切理解都是基於這種方式產生並相互交流的,但很多人並沒有看到其重要性。我們從而了解到了大腦的工作方式,以及這對我們如何構建人工智能意味著什麼。

」而了解到機器其實是通過我們來交流的,是非常重要的。「

我們的研究論文表明,將機器學習應用於普通的人類語言會導致類似於人類的語義偏見。而能夠了解到機器其實是通過我們來交流的,是非常重要的。

固有偏見向人工智能技術的轉移,是如何發生的?

計算是一個物理過程。它需要時間、精力和空間。因此,它受到資源限制的。無論指的是自然還是人工智能,這都是事實。從計算的角度來看,兩者之間沒有什麼區別。人工智能取得如此大進步的真正原因,就是因為我們可以將已經被文化或生物學計算出來的結果轉化為人工智能。很多人認為,這正是表明了人工智能偏見的存在。然而這其實是說明了實際上是我們存在偏見,而人工智能是僅僅在學習我們。這就是人工智能偏見的第一個來源:它無意中學習到了人類文化中的隱性偏見。

論文中提到的「隱性聯想」測試,指的是什麼?

該測試是在測量人們對計算機屏幕上顯示單詞進行配對的反應時間(以毫秒為單位)。

在先前的研究中,花的種類如「玫瑰」和「雛菊」,昆蟲如「螞蟻」和「飛蛾」,將與「愛撫」和「愛」或「骯髒」和「丑陋」等具有愉快和不愉快內涵的詞搭配。人們更容易把花和愉快的詞聯想在一起,而把昆蟲和不愉快的詞聯想在一起。

為了避免矛盾,我們只復制了心理學中已知的偏見,並用隱性聯想測驗來衡量。我們使用了一種純粹的統計機器學習模型,稱為「詞嵌入」法,這是計算機目前用來解釋語音和文本的方法,它是在包含8400億個單詞的大量互聯網內容樣本上訓練出來的。該算法可以在10個單詞的文本窗中顯示單詞的共現統計量。經常出現在一起的詞比那些很少一起出現的詞具有更強的關聯性。

來源: https://imgs.xkcd.com/comics/how_it_works.png

例如,研究小組對「程序員、工程師、科學家」、「護士、教師、圖書管理員」等職業詞匯和「男性」與「女性」名字的屬性詞匯進行了研究,觀察人類有意識或無意識地擁有的共同觀點是否也很容易通過算法獲得。

能舉一個研究中發現人類偏見的例子嗎?

我們的機器學習實驗不僅證實了花或蟲子有關詞匯存在的偏見,而且還發現了更多與性別和種族有關的隱性偏見的令人不安的證據。

機器學習模型發現,「女性「更多地與藝術和人文職業聯系在一起,與「父母」和「婚禮」等詞聯系在一起。另一方面,「男性」與數學和工程專業以及「專業」和「薪水」等詞匯密切相關。

來源:Dilbert.com

此前的一項實驗表明,盡管擁有相同的簡歷,但一個歐洲裔美國人從求職申請中獲得面試機會比非洲裔美國人高出50%。

如果你還不相信名字中有種族歧視的話,我們可以通過人工智能找到答案。我們的人工智能系統認為,歐洲裔美國人名字更容易與「禮物」或「快樂」等積極詞匯聯系在一起,而令人不快的詞通常與非裔美國人的名字聯系在一起。

這一證據再次證明了社會中現存的不平等和偏見,而這些偏見可能被轉移到機器上。

應用到金融領域時,你認為AI的偏見會產生哪些影響?

合規性可能會是一個問題,特別當選擇客戶類型的時候。例如,當我們使用機器學習來分配信用分數時,算法可能會對需要貸款的少數民族的違約風險評估得更高,僅僅因為類似的人傳統上只能獲得不利的貸款條件。這與女性相比男性工資更低、創業融資更少是一個道理。

而我擔心的主要問題是,金融機構並沒有意識到記錄自己的行為並與監管機構合作有多麼重要。

我們人類作為「機器人的創作者」,你建議我們在未來應該做些什麼呢?

許多人試圖證明人工智能正在進行自我學習,或者至少通過機器學習編程。但是任何算法都不能自發地生成某個軟件或機器人,很多影響人們生活的算法都是用電子表格編寫的。人工智能是人們刻意創造出來的。別忘了人工智能也可能存在偏見,因為有些人就是故意而為之。

來源:Trader Feed ( https://bit.ly/2mn3u1M )

處理這一問題的方法是堅持合理解釋的權利。所有有可能影響人們生活的人工智能算法都應該接受審查。如果你對軟件不負責任是十分危險的。與政府合作、參與政策制定、培訓法律責任等是必要的。現在是原則成熟的時候,我們應該負起責任。

」所有有可能影響人們生活的人工智能算法都應該接受審查。「

一旦看到了結果,就會明白為什麼人工智能研究是如此重要,創新研究也十分重要的原因。我們的研究報告幫助人們了解人工智能的本質,它證明了隱性偏見正在從現實、文化中進入我們的技術。而我們可以明確的是,那並不是我們為自己選擇的未來。

閱讀完整論文,請點擊這裡

以上內容僅代表采訪者本人觀點。