廣告
xx
xx
"
"
回到網頁上方

AI錯認孕婦是劫車犯害關11小時 怒告美警求償上億

記者 彭惠筠 報導
發佈時間:2024/02/14 15:35
最後更新時間:2024/02/14 15:35
圖/達志影像美聯社
圖/達志影像美聯社

現在各行各業都講求加入AI應用,包含連警察執法都希望透過高科技增加效率,美國警方開始使用AI來辨識嫌犯,但目前應用發現,AI的辨識技術對有色人種或是非裔人士,容易誤判,底特律一名懷胎八月的女子,就曾經被誤認成劫車的搶劫犯,被迫關了11個小時,現在一狀告上底特律警方。

遭AI錯認民眾Porcha Woodruff:「是警察找上門來。」

 

回憶這段驚恐經歷,美國底特律這名非裔女子Porcha還心有餘悸,六名警察狂敲她家大門,指控她是劫車和搶劫犯。

遭AI錯認民眾Porcha Woodruff:「我能做什麼呢,我當時還大著肚子呢。」

懷孕8個月,連走路都是腳步沉重,怎麼可能去搶車子,但警察一口咬定她犯罪,當著孩子的面把她上銬帶走,之後底特律警方撤銷罪名,終於承認是抓錯人。
 

底特律地區警長James White:「調查員就該做好調查的工作。」

但為什麼會犯這樣的錯,就是因為警方用AI去辨識嫌犯,結果比對錯誤,把Porcha的大頭照誤認成嫌犯。

喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「這類應用還沒準備好,這還不是一個完整的商品,(那您認為警察該使用了嗎),當然還不行。」

美國政府2019年曾公布一份研究,內容是研究200份以演算法比對臉孔的結果,發現有色人種的錯誤率會比白人高出10倍甚至百倍以上。

喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「我們來看看會發生什麼事,來試試看吧。」

CNN記者當場實驗,他們用四位CNN記者的臉,再加上5名喬治亞理工學院的教職員,試著用AI軟體來辨識出這位女記者的臉。

喬治亞理工學院AI專家Matthew Gombolay vs.CNN記者:「有些像這個顯示你是Victor Blackwell,但Victor Blackwell是非裔男性耶。」
 

女記者實測被認成男主播,而這種試錯對警方執法來說,是連一次都不能有的重大風險。

喬治亞理工學院AI專家Matthew Gombolay:「它們不能只是大部分時候正確,而是真的要隨時都正確。」

CNN記者vs.作家Calvin Lawrence:「這過程中到底哪裡出問題,是在數據層方面出的錯。」

研究發現,包含數據庫裡的罪犯,非裔人士比例較高,還包括若是白人的軟體開發者,餵給AI資料庫可能都以白人照片為主,相對地對非裔或其他人種的辨識度就比較低。

AI專家Matthew Gombolay vs.CNN記者:「我們可以教導演算法種族歧視嗎?是的演算法才不在乎這些,它們只想完成你所給予的任務。」
 

目前這類誤認案件,已經至少發生六起,也讓外界對AI應用的可信度,不禁要打個問號。
 

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



#美國#底特律#警察#AI辨識#非裔人士#誤判#嫌犯

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1463

0.0823

0.2286