2016年11月25日 星期五

MIT Techonology Review 摘要心得 11/23

今天所摘的兩篇稍微提到資料取樣偏差對模型的影響

1. 神經網絡學習辨識罪犯的臉孔 原文

這種Minority Report式的犯罪預測器並不是多新奇的點子,2011年 Cornell似乎發現了一般人可以由照片區分出罪犯與非罪犯,而上海交大也以此為基礎實驗了讓機器自己區辨一群男性的照片而看機器是否能有效區分罪犯的臉孔與否。結果是有89.5%的成功率,證明了被定罪者與一般人之間的臉孔特徵上有決定性的差異。
在沒有看到原文研究時很難多做批判,對於這類議題或許我是過於保守的人,不過隨手可以捻來些疑問:比方說照片的來源是中性證件照或是Mug shot,是開始從事犯罪行為後的照片還是開始犯行之前。
拉離機械學習的範圍來想:臉部特徵與定罪是否是透過犯罪而連結起來的? 假設這犯罪臉就是導致許多人犯下罪行,被指控,或是被社會孤立而犯罪。那即使機械可以精準預測,其實也只是複製人們對臉孔特徵的歧視也不一定。

2. 自動化的性別歧視 原文

處理自然語言的AI在學習語言的時侯將特定職業,如programmer,與男人這個性別連結得較為緊密。這個存在於多數人概念中的偏見(縱使在統計上男性programmer比女性programmer多)是否應該在訓練AI時經由手動調整平衡這個差異?人為操作是否會讓AI無法正確學習到語言的正常使用方式?

換句話說,如果一般人講話就是這麽具有偏見,一個講話中性的AI是否會讓人覺得不近人情呢。

真實世界的資料可能並不是我們所理想的樣貌,但使用機械學習可以有效地複製或模擬現存世界的現象,自動化並提供更能客觀觀測的行為方式。讓我想試試將性別中性的權重加進演算法中壓抑性別偏見的發言,看看訓練出來的AI能多接近人類。

又,這樣的AI有沒有可能協助下一代的人類擺脫具有性別偏見的說話方式呢?語言固然是活的,但與帶有偏見的語言使用者交流的機會是不可能(可能也不應該)被隔絕的,在可預期的未來中我不認為是可行的。不過也難說,或許幾年後教師都被AI給取代了也不一定。

沒有留言:

張貼留言