廣告
xx
xx
"
"
回到網頁上方

擋韓AI武器野心 全球連署發動學術抵制

記者 李芳恩 報導
發佈時間:2018/04/06 21:09
最後更新時間:2018/04/06 21:09
圖/達志影像美聯社
圖/達志影像美聯社

多年來學界不斷呼籲各國不要將人工智慧應用在武器上,但似乎已成了無法停止的趨勢,傳出南韓有意將國防AI拓展到世界頂尖規模,南韓最大軍火集團旗下的「 韓華系統公司」,與南韓頂尖理工學院「韓國科學技術院」進行產學合作成立 「國防與人工智慧整合研究中心」,發展一系列AI技術,有潛力結合潛艇與攻擊無人機,此舉引發全球超過50位學者連署抵制,表達不再與韓國科學技術院,進行學術合作或學者交流。而類似的抗議也發生在美國谷歌,高達3000多位的資深工程師和員工連署要求公司,停止提供AI軟體協助美國國防部,提高無人機轟炸的精確度。下週聯合國也開會要討論,如何防止人工智慧武器化,從一系列事件可見,自主攻擊武器的發展,讓全球感到相當憂慮。 

圖/達志影像美聯社

 
電影中的AI機器人殺手,是刺激、有娛樂效果的科技梗,但隨著相關技術的發展卻成了科學家的隱憂,紛紛主張禁止將AI朝武器發展的研究,然而卻傳出,南韓有意打開危險的潘朵拉盒子。

南韓主播:「韓國科學技術院和韓華系統,一起開設國防與人工智慧整合研究中心。」  

有南韓MIT之稱的韓國科學技術院,與南韓最大軍火商,韓華集團旗下的韓華系統公司,2月正式進行產學合作,成立國防與人工智慧整合研究中心,結合兩邊軍事經驗及尖端科技,要將韓國國防AI拓展到世界頂尖規模,結果引發全球多達57名學者的學術抵制,台灣政治大學資科系的劉昭麟教授也是連署的其中一人 。

 
政治大學資科系劉昭麟教授:「來信邀請我們連署只是說明,南韓科學技術院他們跟大陸一些機構有合作,可能要往武器的發展方向去走,這樣的發展一直都有傳說,所以能愈早防止是愈好的。」  

連署信上要求韓國科學技術院,停止發展人工智慧武器,提到發展自主武器只會加速軍事競賽,讓人無法容忍,因此來自全球30國AI專家將停止與KAIST所有相關研究合作,拒絕造訪也不再進行交流。

政治大學資科系劉昭麟教授:「他們很正式地回信說,他們其實會注意這件事情,然後人工智慧其實要發展武器,其實是一件滿危險滿糟糕的事情,但是其實可能不會那麼困難,所以我們滿擔心這樣的發展。」  

根據英國金融時報報導,韓華與KAIST的國防AI應用,目前有四大方向,其中無人水下載具的導航演算法和潛艇有關,另外還有智慧型飛行模擬器以及智慧型目標追蹤與辨識科技,似乎可以更精進無人機的攻擊能力。

在面對外界質疑是否會結合攻擊性武器發展,國防與人工智慧整合研究中心正式出面澄清。

國防與人工智慧整合研究中心研究所所長金教授:「最終目的是要減少國防費用,減少士兵的數量,但要維持國防力,這是我們的出發點,我們保證絕對不會用AI開發大型破壞武器或攻擊武器。」  

但其實人工智慧和殺人武器的結合,傳出美國已經應用在了戰爭當中。

 
俄羅斯記者:「科技巨頭和美國國防部合作提供一套系統,利用人工智慧幫助無人機瞄準轟炸。」  

據俄羅斯媒體今日俄羅斯報導,美軍透過谷歌的物件識別軟體能自動分析拍攝影片及數據,幫助軍方找出合適攻擊的目標,包括像是建築、車輛、人物等等,然後進行精準轟炸。

前美國中情局分析師 克里阿庫:「這是美國科技公司見不得人小秘密,幾乎所有主要的大型科技公司,不管分屬哪一個類別,在某種程度上,不是和國防部就是和情報單位合作。」  

然而這項消息在谷歌內部引發大地震,高達3100名資深工程師和員工連署寄信給執行長皮查,要求企業停止協助國防部加入戰爭事業,並要求公司保證絕不會打造戰爭技術,但恐怕很難完全切割,因為谷歌副總裁米羅·麥丁以及母公司的董事也是谷歌前執行長施密特,都是美國國防創新委員會的諮詢顧問。

谷歌前CEO、現任Alphabet董事施密特:「科學團體普遍有同樣的憂慮,軍事工業,會利用他們的技術去殺人。」  

 
目前全球在AI軍事化的競賽上,美國、俄羅斯、中國大陸、以色列加上南韓都表現出強烈的企圖心,但科學家們不斷發出警告,可能對人類造成生存威脅,因此聯合國下個星期也即將在日內瓦開會,討論防堵AI武器化的相關議題。

最HOT話題在這!想跟上時事,快點我加入TVBS新聞LINE好友!

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



#人工智慧#軍事#聯署

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1122

0.0682

0.1804