現在各行各業都講求加入AI應用,包含連警察執法都希望透過高科技增加效率,美國警方開始使用AI來辨識嫌犯,但目前應用發現,AI的辨識技術對有色人種或是非裔人士,容易誤判,底特律一名懷胎八月的女子,就曾經被誤認成劫車的搶劫犯,被迫關了11個小時,現在一狀告上底特律警方。
遭AI錯認民眾Porcha Woodruff:「是警察找上門來。」
回憶這段驚恐經歷,美國底特律這名非裔女子Porcha還心有餘悸,六名警察狂敲她家大門,指控她是劫車和搶劫犯。
遭AI錯認民眾Porcha Woodruff:「我能做什麼呢,我當時還大著肚子呢。」
懷孕8個月,連走路都是腳步沉重,怎麼可能去搶車子,但警察一口咬定她犯罪,當著孩子的面把她上銬帶走,之後底特律警方撤銷罪名,終於承認是抓錯人。
底特律地區警長James White:「調查員就該做好調查的工作。」
但為什麼會犯這樣的錯,就是因為警方用AI去辨識嫌犯,結果比對錯誤,把Porcha的大頭照誤認成嫌犯。
喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「這類應用還沒準備好,這還不是一個完整的商品,(那您認為警察該使用了嗎),當然還不行。」
美國政府2019年曾公布一份研究,內容是研究200份以演算法比對臉孔的結果,發現有色人種的錯誤率會比白人高出10倍甚至百倍以上。
喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「我們來看看會發生什麼事,來試試看吧。」
CNN記者當場實驗,他們用四位CNN記者的臉,再加上5名喬治亞理工學院的教職員,試著用AI軟體來辨識出這位女記者的臉。
喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「有些像這個顯示你是Victor Blackwell,但Victor Blackwell是非裔男性耶。」
女記者實測被認成男主播,而這種試錯對警方執法來說,是連一次都不能有的重大風險。
喬治亞理工學院AI專家Matthew Gombolay:「它們不能只是大部分時候正確,而是真的要隨時都正確。」
CNN記者vs.作家Calvin Lawrence:「這過程中到底哪裡出問題,是在數據層方面出的錯。」
研究發現,包含數據庫裡的罪犯,非裔人士比例較高,還包括若是白人的軟體開發者,餵給AI資料庫可能都以白人照片為主,相對地對非裔或其他人種的辨識度就比較低。
AI專家Matthew Gombolay vs.CNN記者:「我們可以教導演算法種族歧視嗎?是的演算法才不在乎這些,它們只想完成你所給予的任務。」
目前這類誤認案件,已經至少發生六起,也讓外界對AI應用的可信度,不禁要打個問號。
◤日本旅遊必買清單◢