許多民眾使用人工智慧(AI)時,一定都經歷過答非所問、一本正經亂講話、瞎掰等現象,不禁讓人疑惑「AI是否可靠」?近期 AI 龍頭企業 OpenAI 與喬治亞理工學院(Georgia Tech)聯合發表研究,指出 AI 模型常常出現「幻覺」的原因在於訓練和評估方式本身,甚至是「被獎勵裝懂」。
更多新聞:ChatGPT「教輕生、寫遺書」害死兒子 家長淚告OpenAI
AI瞎掰真相:訓練及評估方式異常
團隊指出,目前 AI 的語言模型訓練清一色都是偏向獎勵「產出答案」,而非承認「不知道或不清楚」。在這樣的背景下,AI 遇到不確定的問題時,即便亂猜都比不回答更容易獲取分數獎勵,久而久之反倒養成「瞎掰」的習慣。
研究專家進一步指出,就像學生考試一樣,當遇到不會的考題,「亂猜」都還可能答對而拿到分數;反之「空著不答」就保證無法得分,這樣的現象在 AI 語言模型訓練也適用,讓模型即使答案不正確,也會有自信地產出答案。

改變制度才能增加 AI 可信度
OpenAI 指出,提高語言模型的準確率確實可以消除幻覺,然而達到 100 %是永遠無法達成的,因此幻覺現象無法完全避免。幻覺現象可以視為 AI 的缺陷,但透過制度的改變,以及對幻覺進行測量和評估,仍有機會避免因幻覺現象所導致的錯誤。
更多新聞:ChatGPT幫你搶便宜機票!理財達人曝「7指令」 秒省近3萬
研究團隊也指出,OpenAI 最新的模型的確存有較低的幻覺率,顯示制度的改善可能有所收穫。最主要的制度改變是對「獎勵」的方式不同,不再一味鼓勵 AI 模型產出答案,也不會因對答案不確定就給予扣分懲罰,誠實表達不清楚被視為訓練的一環,進而讓幻覺率下降,增加可信度。
◤賞楓季開跑 搶旅遊優惠◢
◤對抗極端天氣◢





