回到網頁上方
關閉氣象
pm2.5_icon
PM2.5值 11低
09/25
星期五
天氣圖示
24°
26°
09/26
星期六
天氣圖示
24°
26°
09/27
星期日
天氣圖示
22°
25°
09/28
星期一
天氣圖示
23°
25°
09/29
星期二
天氣圖示
24°
27°
09/30
星期三
天氣圖示
23°
26°
周五起各地早晚涼 白天中南部熱
漢堡按鈕
>
hamburger button
hamburger button
smart banner
下載TVBS APP

隨時掌握完整的時事新聞!

下載
tvbs logo
hamburger button
hamburger button
  • 16
  • Aug
  • 2020

善用科技盼中立 AI卻戴有色眼鏡

記者 Focus360 俞璟瑤 報導

時間圖示2020/08/16 21:00
 善用科技盼中立 AI卻戴有色眼鏡

從政府到民間企業,利用大數據AI分析,已經是時勢所趨。尤其在疫情爆發過後,不論是面試還是銀行貸款申請,經常會借助遠距離AI分析。但強調公平的AI,其實存在隱形的偏見。亞馬遜就發現,負責篩選面試者的AI系統,因為資料庫不夠多元,只要碰上帶有"女性"相關字眼的履歷就會給予較低的評分。類似的AI偏見其實屢見不鮮,但卻長期被忽略。

面試機器人:「哈囉!我是薇拉,我是機器人,請問貴姓大名? 」

 
記者:「嗨!我叫傑森伯里尼。」
 
在疫情爆發之後,美國採用遠端面試的公司就超過八成,像這樣由AI機器人來進行面試的情況,未來會越來越頻繁。
 
記者:「負責分析的Hirevue公司指出,影音面試的回應充滿各式數據資料,包括口頭應答、聲調,以及非語言溝通。這些都只是25000個分析數據點當中的一部分。」
 
Hirevue執行長 帕克:「我們可以看得出創造性思考,這一類的傾向。你問某人一個問題,他們會像這樣往上看,再想個幾分鐘。就心理學角度,這強烈顯示,他具有創意的思維。」
 
AI應徵系統的業者,強調利用微表情,還有下意識的肢體動作,就能判斷出面試者的個性以及適任與否,更號稱能夠藉由科技的輔助,消除可能造成的偏見。
 
 
Hirevue執行長 帕克:「科技能夠客觀審視職位候選人,不論是男是女,不拘性別、年紀和種族。好好檢視此人的真實本色,而非面試官可能會看到的粗淺表面。」
 
AI面試官聽起來公正無私,能評斷出最適合的求職人選,似乎是人事單位最好的選擇。華爾街日報的記者,就實際測試這種利用影音面試,透過大數據分析他的應答。


華爾街日報記者 伯里尼:「我的分數是由Hirevue的AI,把我的應答跟實際在職的職員相比,基本上就是評比我的表現。把我的聲音、用字遣詞、臉部表情,跟公司裡表現最好的員工做比對。」
 
把應徵者的表情跟說話方式跟優秀員工相比,能不能找到最合適的職員,
已經有所爭議,利用AI篩選求職者更讓亞馬遜栽了一個大跟斗。
 
 
科技專家 埃德里奇:「系統開始忽視那些,女子學院或女子大學畢業的應徵者。或是履歷當中有女性字眼的應徵者,例如女子西洋棋隊長。」
 
由於AI系統參考的資料庫,就是亞馬遜過去十年的員工,因為男性員工遠多於女性,I因此認為女性比較不適合這項職務。馬遜利用自動化系統審核履歷,原本是要節省人力,也能避免人工審核造成的偏見,但卻演變成更嚴重的性別歧視。專家說,這就是一般企業很常忽略的AI偏見。
 
記者 達斯汀:「在這行大家說這叫垃圾進、垃圾出,如果給出含有偏見的爛數據,電腦就只會模仿這些。」
 
AI能夠模仿人類,自動做出判斷,靠的就是學習發展出演算法。
 
記者:「利用所謂的機器學習以及深度學習,這兩種方式讓AI學習怎麼做決定,這兩種方式都仰賴數據,大量的數據,基本上就是取決於餵數據的人。」
 
 
不只是人為造成的偏差,數據資庫不夠多元,也可能讓AI學習有了漏洞。
 
記者:「因為用於訓練軟體的數據,通常絕大部份是白人男性的資料。一個廣泛應用的數據庫,當中75%是男性 80%是白人。」
 
資料庫內容太過單一,使得人工智慧系統,變成有種族歧視的科技工具。
 
演算法正義聯盟創立者 布拉薇妮:「我在麻省理工的第一學期,使用電腦視覺軟體。原本應該要偵測出我的臉,卻一直無法偵測,直到我戴上這個白色面具,我就想說這到底怎麼回事。」
 
這樣的成見一旦成為大數據中的一環,影響的範圍相當驚人。
 
記者:「AI技術已經用於判斷誰能獲得貸款,誰獲得工作,誰被炒魷魚,誰能自由旅行,甚至是決定誰被逮捕、要坐牢幾年。」
 
AI協助執法也是這幾年的一大趨勢。包括人臉辨識技術,甚至還有犯罪預測。利用區塊劃分的方式,將過去犯罪資訊輸入電腦,找出較容易發生事件的區域加強巡邏,要讓有限的警力可以發揮最大的作用。包括洛杉磯 芝加哥等城市的警局,都採用類似系統,看在專家眼裡卻心驚膽顫。
 
媒體正義中心主任 雷德洛:「雖然科技本身可能是中性的,但是我們放進演算法裡的數據點卻不是。這些數據都是出自警方執法系統性的偏見,懲治量刑的傳統、懲罰性毒品法條造成的結果。」
 
專家形容利用這種AI演算法,就像是在一個學校裡,列出問題學生名單,卻都只把焦點放在問題學生身上。
 
PBS記者:「如果黑名單上的學生當周沒有做作業,就會受懲處。但不在觀察名單上的學生,就算沒交作業也不會受罰,只因為參照的是他們過去的表現。」
 
也因此非裔族群遭到無故盤查機會大增,就連被逮捕之後,保釋金也比一般人還要高,利用科技演算造成法治上的不公平,恐怕也是掀起種族歧視抗議潮的原因之一。


紀錄片Coded Bias旁白:「這孩子遭到攔查,只是因為臉部辨識裝置認錯人! 」

亞馬遜因此在六月就宣布,將暫停警方使用臉部辨識技術來執法,IBM甚至宣布停止臉部辨識的業務。
 
主播:「密西根州一名無辜男子,遭到逮捕並且拘留30小時,只是因為錯誤的臉部辨識。舊金山和波士頓,紛紛決定禁用這項科技,因為有色人種的辨識錯誤率明顯偏高。」
 
不少學者也開始推動,移除偏見性內容,要讓AI背後學習的資料庫更完備,但卻發現這項任務並不容易。
 
AI與心理學專家 拜森:「有些人會說當然會充滿偏見,AI就是那些加州白人男性寫出來的程式。沒錯!你會忽視一些事情,因為那不是你的生活經驗。但就算你完全公平採樣,最後還是會得到一個有成見的機器,因為你已經吸收了這些偏見文化。」
 
因此專家要求在AI學習的資料庫能更完備之前,要求公家機關還有執法部門,都要謹慎使用,並且成立獨立監管機構。也希望科技產業從業人員也能更多元,利用更多角度的思考,來減少AI偏見的發生率。

最HOT話題在這!想跟上時事,快點我加入TVBS新聞LINE好友!

你可能會喜歡

人氣點閱榜

看更多
notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!