Google台灣總經理林雅芳(Tina)。(圖/區國強攝)
人工智慧(AI)技術急速發展,雖然創造了商機,也衍生道德、倫理等問題,廣電媒體同樣面臨AI應用挑戰,國家通訊傳播委員會(NCC)擬訂定使用指引,立法監管AI。對此,Google台灣總經理林雅芳(Tina)表示,Google和數位發展部、相關政府單位均有密切交流,但回歸根本,人類的素養也應提升,「其實人的公民道德,不能全推給工具」。
Tina接受《TVBS看世界》主持人彭志宇專訪,談及AI技術引發的道德疑慮問題,她以科技公司的角度出發,表示Google對於AI一直都抱持著大膽且負責任的原則,同時也公布7項AI原則,包括安全、隱私權、避免濫用AI工具等,公司旗下所有的產品及模型,均基於原則進行審查和檢測,希望AI最終是要幫助人類,若有違背人類福祉的情況,便會審慎看待這樣的產品或功能是否適合推出。
Tina接著說,Google在AI這塊至少布局7年多,身為科技領導公司之一,除了技術推進,也要負起社會責任,希望相關技術能幫助人們的生活、工作,往良善的方向發展,如果創新不是為了讓人們生活更好,也違背了公司創立的初衷。
針對AI挑戰倫理底線,Tina認為,道德當然有所謂的普世原則,但同時仍有政治、社會等特例觀點,不同文化之下也會有不同看法,以美國、英國及新加坡等國家為例,他們都針對AI監管方面推出法規架構,以及當地需要遵循的原則,Google在不同的市場上,也跟產官學緊密連結,在符合當地法規、甚至法規之上去做技術推進,幫助社會經濟提供更多正向的助力,而不是為了科技創新,一昧追求科技進步發展,卻帶給大家負面影響。
至於台灣政府擬立法控管AI,Tina表示,Google跟數發部、相關單位持續研討,目前各國政府在這方面的態度各有不同,以台灣自由、民主風氣來說,如何保障人民知的權利,避免技術領先衍生相對應的風險,必須取得平衡,若是無限制監管很可能帶來負面的作用,因此監管AI這塊,Google也跟政府相關單位有非常緊密地交流與討論。
反觀AI工具使用者,該有什麼樣的自我規範?Tina坦言,技術發展確實可能衝擊教育體制,該怎麼做才是善良的人,家庭、父母、學校、社區,甚至大到社會跟國家,都沒辦法用單一角度去衡量,而是每個面向的社會參與者,都應該花心力去關注道德認知這件事,在新科技發展下,會帶來什麼樣的影響?又或者因為工具的產生,帶來加乘的衝擊?
Tina指出,Google身為科技產業的一份子,也希望盡一份心力,以假訊息流傳為例,AI可能導致錯誤訊息生成速度更快,公司近幾年也和事實查核中心合作,從技術上去做一些防堵的動作。不過她也直言,平台端會盡量去防治,但手法仍會推陳出新,人類在數位素養或媒體識讀上的能力,也必須要提升,如果人們駕馭工具的能力沒有跟上科技發展速度,終究會產生疑慮。
◤Blueseeds永續生活◢
更新時間:2023/06/15 10:48