整理、撰文:雷文君
AI大軍來襲 企業如何面對挑戰
 
AI人工智慧發展已是不可逆的趨勢,透過ChatGPT可讓企業經營團隊了解AI的發展並爭取預算,進一步找出最合適的AI工具應用,協助經營發展;但對於個資、隱私保護、避免機敏資料外洩等管理議題仍待克服。
生成式AI席捲各大產業,除了協助提供更精準的客製化服務、彌補人力缺口外,伴隨而來的資安、個資隱私等挑戰也不容小覷,台灣金融研訓院芬恩特創新聚落邀請工研院、台灣大哥大、金融評議中心、台北市資訊局等單位,從產官學角度,針對生成式AI的應用、機會與風險挑戰,進行多面向深入分析及探討,剖析AI對產業的影響。
人工技術發展4階段 ChatGPT當道
 
以演進歷史來看,人工智慧技術發展大致可分為4個階段,包括:第一階段的專家系統,以及第二階段的機器學習,透過提供巨量資料,以及語音辨識、機器辨識的方式;第三階段則是巨量資料加上深度學習開放資料技術協同發展,這時候生成式AI已經可以創造圖文;至於第四階段有兩個重要元素,包括基礎模式及生成式,例如2022年11月Open AI推出ChatGPT,到了2023年1月使用者已經超過1億人。
根據KPMG發布的《生成式AI模型及商業應用》報告指出,AI應用大致可分為:內容編寫生成工具、資訊擷取器、智慧聊天機器人、語言翻譯及代碼生成等5大類。
人類、機器訓練量差異化 工作成效大不同
台北市資訊局局長趙式隆表示,人類跟機器最大差異在於訓練量,人類對於知識訓練的轉換率有很大差別,人類如果能跟機器完成相同訓練,人一定會做得比機器好;假如這訓練量是人類無法負荷的,那人的表現就未必比機器來得好。
趙式隆以日前印度發射火箭登陸月球作為比喻,其中驅動火箭的引擎就像是發展人工智慧所需的神經網路,而發射火箭所需的燃料則是人工智慧實作的大數據。
趙式隆認為,人工智慧有個重要概念為「通用技術」,過去人類有許多了不起的發明,例如蒸汽機、半導體、網路等,而這些發明有個共同點即是通用技術,也就是某一個技術可廣泛應用在不同領域,以人工智慧來說,只要某個事情可以用數位予以記錄,就可以稱為人工智慧教材,進一步讓機器進行實作。
 大型語言模式成就AI人工智慧
隨著生成式AI不斷衍生出新應用,其風險與挑戰也隨之而來。工研院資通處副所長黃維中指出,生成式AI伴隨的是大型語言模型,生成式AI(Generative AI)及大型語言模型(Large Language Models)之間具有密切關係,意即大型語言模式是實現生成式人工智慧的重要技術之一。
生成式AI特點在於餵食大量資料,再透過人工智慧生成新的文字、影音或圖像等資料,藉由大量的訓練資料進行學習,讓模型可以根據先前學習到的知識和模式生成「全新、而且與原始資料相似」的資料。
黃維中表示,大語言模型是基於深度學習技術訓練,理解並生成自然語言的模式,藉由大量文字進行訓練並學習知識,進一步生成新的文字或是對現有文字進行分析與理解;而生成式AI與大型語言模型兩者間的交集正是目前流行的ChatGPT。
生成式AI應用 水能載舟亦能覆舟
 在生成式AI應用部分,黃維中指出,以教育層面來說,好處多且影響大,但相對的,引發的疑慮也不少,目前已是各國人才競爭力培育的新賽局。以機會挑戰的立場來說,生成式AI可應用在線上課程參與、自學等,並提高學習者對AI的熟悉度;而對教學者來說,除了可協助備課,也能幫忙分擔教學者完成評分,或是重複性的行政工作,以彌補人力不足的缺口。
但黃維中也說,相對的生成式AI也有潛藏隱憂,例如論文、書面作業可能因此陷入抄襲疑慮,內容可能因此有偏見、侷限性或是不夠精準等問題;而過度依賴AI也會讓學生缺乏批判性思考與嘗試解決問題的機會;站在教育者立場而言,生成式AI無法識別並處理品格方面的問題,亦無法個別評估學生的創造力及獨創性,恐怕無法客觀的評價學生能力。
AI應用雙面刃 恐成詐騙幫兇
至於風險與挑戰方面,黃維中則以效能、安全、穩健、公平及透明性舉例說明,以效能安全部分來說,包括有軟體公司因分析準確性不佳遭罰,以及台灣駭客破解中國銀行的人臉辨識,盜走人民幣43萬元存款;在公平透明方面,則有微軟聊天軟體因網友提問種族歧視冒犯的不當回應。
此外,AI也可能遭詐騙利用提升效能,成為詐騙幫兇,例如先前有詐騙集團利用AI人工智慧建立技術,隨機撥打詐騙電話給民眾,這些都是AI人工智慧發展潛藏風險。
整體而言,AI不論對個人或企業可說是一體兩面的雙刀刃,企業導入AI技術並妥善運用確實能提升效益,但也必須有妥適的指引及法制規範,避免生成式AI引發的風險與負面影響。
因應新興科技 監理模式先自律後他律
在消費者保護面部分,財團法人金融消費評議中心董事林盟翔指出,對於AI衍生的消費者保護方面,主管機關一改過去「先他律後自律」的模式,因應新興科技趨勢轉變成「先自律後他律」,透過包容性監理的開放態度迎接新興科技發展是正確而且值得肯定的方式。
林盟翔認為,法規監理應考量虛實整合,跳脫傳統發展思維,站在消費者立場,最初的WEB1.0是被動接受與閱讀資訊;WEB2.0則演進成消費者可發表自身看法形成有互動的溝通;WEB3.0則多了區塊鏈、虛擬通貨及NTF等元素,讓消費者擁有網路建構的虛擬世界、元宇宙等資產權限並從事交易;至於近期甫公布的WEB4.0,則是藉由過去累積的人工智慧運用,建構共生網路。
林盟翔進一步指出,共生網路所強調的是人、機共生互用,而從歐盟相關定義中也顯示注重虛擬世界發展及真實世界的整合,創造具備開放、安全、信任、公平與包容特色的數位環境,其實,最終仍會回歸與真實世界的連結,差別在於虛實整合下,界線逐漸模糊甚至痕跡消失。
企業防風險 禁用ChatGPT
台灣大哥大資通訊暨個資安全管理處副處長陳嘉宏則表示,隨著ChatGPT趨勢進入企業後,約有2成企業鼓勵員工使用,但也有高達4成企業在第一時間為此強化員工的資安意識,但另有約12%企業直接下禁令,禁止員工使用ChatGPT,尤其是金融業,大約有超過4成業者禁止公司內網連結到ChatGPT,直接下令禁用。
陳嘉宏引述調查報導指出,站在資訊長(CIO)的立場,ChatGPT帶來機會像是透過生成AI智能,提供客戶個性化服務,也能以此強化詐騙偵測及預防能力,而企業數據分析與決策也能靠ChatGPT解決,而其自動化特質也能節省營運成本。
有機會就相對有風險挑戰要面對。陳嘉宏表示,ChatGPT也伴隨相關挑戰,包括客戶個資與商業機密的保護,新興科技導入法規的拿捏與平衡,以及自動化對於人力職務的取代與轉型等。
另外,也有CIO觀察到,要如何讓員工使用ChatGPT又要兼顧避免個資與公司資料外洩,以及為避免生成式AI一本正經的胡說八道,其商轉進程也有待觀察。
但整體而言,AI人工智慧發展已經是不可逆的趨勢,透過ChatGPT可讓經營團隊了解AI的發展並爭取預算,進一步找出最合適的AI工具應用,協助經營發展;與此同時也要留意,關於個資、隱私保護,甚至是避免機敏資料外洩,以及AI對於答案正確性無法掌握,這些都可能對公司造成極大的傷害,因此在管理議題仍有待克服。
探索更多精彩內容,請持續關注《台灣銀行家》雜誌
https://taiwanbanker.tabf.org.tw/index
AI大軍來襲 企業如何面對挑戰
AI人工智慧發展已是不可逆的趨勢,透過ChatGPT可讓企業經營團隊了解AI的發展並爭取預算,進一步找出最合適的AI工具應用,協助經營發展;但對於個資、隱私保護、避免機敏資料外洩等管理議題仍待克服。
生成式AI席捲各大產業,除了協助提供更精準的客製化服務、彌補人力缺口外,伴隨而來的資安、個資隱私等挑戰也不容小覷,台灣金融研訓院芬恩特創新聚落邀請工研院、台灣大哥大、金融評議中心、台北市資訊局等單位,從產官學角度,針對生成式AI的應用、機會與風險挑戰,進行多面向深入分析及探討,剖析AI對產業的影響。
人工技術發展4階段 ChatGPT當道
以演進歷史來看,人工智慧技術發展大致可分為4個階段,包括:第一階段的專家系統,以及第二階段的機器學習,透過提供巨量資料,以及語音辨識、機器辨識的方式;第三階段則是巨量資料加上深度學習開放資料技術協同發展,這時候生成式AI已經可以創造圖文;至於第四階段有兩個重要元素,包括基礎模式及生成式,例如2022年11月Open AI推出ChatGPT,到了2023年1月使用者已經超過1億人。
根據KPMG發布的《生成式AI模型及商業應用》報告指出,AI應用大致可分為:內容編寫生成工具、資訊擷取器、智慧聊天機器人、語言翻譯及代碼生成等5大類。
人類、機器訓練量差異化 工作成效大不同
台北市資訊局局長趙式隆表示,人類跟機器最大差異在於訓練量,人類對於知識訓練的轉換率有很大差別,人類如果能跟機器完成相同訓練,人一定會做得比機器好;假如這訓練量是人類無法負荷的,那人的表現就未必比機器來得好。
趙式隆以日前印度發射火箭登陸月球作為比喻,其中驅動火箭的引擎就像是發展人工智慧所需的神經網路,而發射火箭所需的燃料則是人工智慧實作的大數據。
趙式隆認為,人工智慧有個重要概念為「通用技術」,過去人類有許多了不起的發明,例如蒸汽機、半導體、網路等,而這些發明有個共同點即是通用技術,也就是某一個技術可廣泛應用在不同領域,以人工智慧來說,只要某個事情可以用數位予以記錄,就可以稱為人工智慧教材,進一步讓機器進行實作。
隨著生成式AI不斷衍生出新應用,其風險與挑戰也隨之而來。工研院資通處副所長黃維中指出,生成式AI伴隨的是大型語言模型,生成式AI(Generative AI)及大型語言模型(Large Language Models)之間具有密切關係,意即大型語言模式是實現生成式人工智慧的重要技術之一。
生成式AI特點在於餵食大量資料,再透過人工智慧生成新的文字、影音或圖像等資料,藉由大量的訓練資料進行學習,讓模型可以根據先前學習到的知識和模式生成「全新、而且與原始資料相似」的資料。
黃維中表示,大語言模型是基於深度學習技術訓練,理解並生成自然語言的模式,藉由大量文字進行訓練並學習知識,進一步生成新的文字或是對現有文字進行分析與理解;而生成式AI與大型語言模型兩者間的交集正是目前流行的ChatGPT。
生成式AI應用 水能載舟亦能覆舟
但黃維中也說,相對的生成式AI也有潛藏隱憂,例如論文、書面作業可能因此陷入抄襲疑慮,內容可能因此有偏見、侷限性或是不夠精準等問題;而過度依賴AI也會讓學生缺乏批判性思考與嘗試解決問題的機會;站在教育者立場而言,生成式AI無法識別並處理品格方面的問題,亦無法個別評估學生的創造力及獨創性,恐怕無法客觀的評價學生能力。
AI應用雙面刃 恐成詐騙幫兇
至於風險與挑戰方面,黃維中則以效能、安全、穩健、公平及透明性舉例說明,以效能安全部分來說,包括有軟體公司因分析準確性不佳遭罰,以及台灣駭客破解中國銀行的人臉辨識,盜走人民幣43萬元存款;在公平透明方面,則有微軟聊天軟體因網友提問種族歧視冒犯的不當回應。
此外,AI也可能遭詐騙利用提升效能,成為詐騙幫兇,例如先前有詐騙集團利用AI人工智慧建立技術,隨機撥打詐騙電話給民眾,這些都是AI人工智慧發展潛藏風險。
整體而言,AI不論對個人或企業可說是一體兩面的雙刀刃,企業導入AI技術並妥善運用確實能提升效益,但也必須有妥適的指引及法制規範,避免生成式AI引發的風險與負面影響。
因應新興科技 監理模式先自律後他律
在消費者保護面部分,財團法人金融消費評議中心董事林盟翔指出,對於AI衍生的消費者保護方面,主管機關一改過去「先他律後自律」的模式,因應新興科技趨勢轉變成「先自律後他律」,透過包容性監理的開放態度迎接新興科技發展是正確而且值得肯定的方式。
林盟翔認為,法規監理應考量虛實整合,跳脫傳統發展思維,站在消費者立場,最初的WEB1.0是被動接受與閱讀資訊;WEB2.0則演進成消費者可發表自身看法形成有互動的溝通;WEB3.0則多了區塊鏈、虛擬通貨及NTF等元素,讓消費者擁有網路建構的虛擬世界、元宇宙等資產權限並從事交易;至於近期甫公布的WEB4.0,則是藉由過去累積的人工智慧運用,建構共生網路。
林盟翔進一步指出,共生網路所強調的是人、機共生互用,而從歐盟相關定義中也顯示注重虛擬世界發展及真實世界的整合,創造具備開放、安全、信任、公平與包容特色的數位環境,其實,最終仍會回歸與真實世界的連結,差別在於虛實整合下,界線逐漸模糊甚至痕跡消失。
企業防風險 禁用ChatGPT
台灣大哥大資通訊暨個資安全管理處副處長陳嘉宏則表示,隨著ChatGPT趨勢進入企業後,約有2成企業鼓勵員工使用,但也有高達4成企業在第一時間為此強化員工的資安意識,但另有約12%企業直接下禁令,禁止員工使用ChatGPT,尤其是金融業,大約有超過4成業者禁止公司內網連結到ChatGPT,直接下令禁用。
陳嘉宏引述調查報導指出,站在資訊長(CIO)的立場,ChatGPT帶來機會像是透過生成AI智能,提供客戶個性化服務,也能以此強化詐騙偵測及預防能力,而企業數據分析與決策也能靠ChatGPT解決,而其自動化特質也能節省營運成本。
有機會就相對有風險挑戰要面對。陳嘉宏表示,ChatGPT也伴隨相關挑戰,包括客戶個資與商業機密的保護,新興科技導入法規的拿捏與平衡,以及自動化對於人力職務的取代與轉型等。
另外,也有CIO觀察到,要如何讓員工使用ChatGPT又要兼顧避免個資與公司資料外洩,以及為避免生成式AI一本正經的胡說八道,其商轉進程也有待觀察。
但整體而言,AI人工智慧發展已經是不可逆的趨勢,透過ChatGPT可讓經營團隊了解AI的發展並爭取預算,進一步找出最合適的AI工具應用,協助經營發展;與此同時也要留意,關於個資、隱私保護,甚至是避免機敏資料外洩,以及AI對於答案正確性無法掌握,這些都可能對公司造成極大的傷害,因此在管理議題仍有待克服。
探索更多精彩內容,請持續關注《台灣銀行家》雜誌
https://taiwanbanker.tabf.org.tw/index
本文為作者評論意見並授權刊登,不代表TVBS立場。
◤日本旅遊必買清單◢