廣告
xx
xx
回到網頁上方

AI被獎勵「裝懂」?OpenAI曝幻覺成因 瞎掰是被獎勵裝懂

編輯 張森皓 報導
發佈時間:2025/09/08 11:53
最後更新時間:2025/09/08 12:02
OpenAI-AI模型-AI語言模型-AI獎勵機制-AI幻覺-AI訓練-ChatGPT-Gemini-Grok
AI對人類生活帶來便利,不過一定也有不少民眾常遇到「AI裝懂或瞎掰」的現象。(示意圖/達志影像shutterstock)

許多民眾使用人工智慧(AI)時,一定都經歷過答非所問、一本正經亂講話、瞎掰等現象,不禁讓人疑惑「AI是否可靠」?近期 AI 龍頭企業 OpenAI 與喬治亞理工學院(Georgia Tech)聯合發表研究,指出 AI 模型常常出現「幻覺」的原因在於訓練和評估方式本身,甚至是「被獎勵裝懂」

更多新聞:ChatGPT「教輕生、寫遺書」害死兒子 家長淚告OpenAI

 
 

AI瞎掰真相:訓練及評估方式異常


團隊指出,目前 AI 的語言模型訓練清一色都是偏向獎勵「產出答案」,而非承認「不知道或不清楚」。在這樣的背景下,AI 遇到不確定的問題時,即便亂猜都比不回答更容易獲取分數獎勵,久而久之反倒養成「瞎掰」的習慣。

研究專家進一步指出,就像學生考試一樣,當遇到不會的考題,「亂猜」都還可能答對而拿到分數;反之「空著不答」就保證無法得分,這樣的現象在 AI 語言模型訓練也適用,讓模型即使答案不正確,也會有自信地產出答案。

 
OpenAI-AI模型-AI語言模型-AI獎勵機制-AI幻覺-AI訓練-ChatGPT-Gemini-Grok

 

改變制度才能增加 AI 可信度


OpenAI 指出,提高語言模型的準確率確實可以消除幻覺,然而達到 100 %是永遠無法達成的,因此幻覺現象無法完全避免。幻覺現象可以視為 AI 的缺陷,但透過制度的改變,以及對幻覺進行測量和評估,仍有機會避免因幻覺現象所導致的錯誤。

更多新聞:ChatGPT幫你搶便宜機票!理財達人曝「7指令」 秒省近3萬

研究團隊也指出,OpenAI 最新的模型的確存有較低的幻覺率,顯示制度的改善可能有所收穫。最主要的制度改變是對「獎勵」的方式不同,不再一味鼓勵 AI 模型產出答案,也不會因對答案不確定就給予扣分懲罰,誠實表達不清楚被視為訓練的一環,進而讓幻覺率下降,增加可信度。

AI浪潮來襲

#OpenAI#AI模型#AI獎勵機制#AI幻覺#AI訓練#ChatGPT#Gemini#Grok#AI語言模型

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.0651

0.0450

0.1101