廣告
xx
xx
"
"
回到網頁上方

AI恐成吃電巨獸? 搜一次ChatGPT耗電量等於10次谷歌

編輯 李靖棠 報導
發佈時間:2024/04/10 12:01
最後更新時間:2024/04/10 12:01
使用大型語言模組的AI機器人,比傳統Google更耗電。(圖/ChatGPT AI生成)
使用大型語言模組的AI機器人,比傳統Google更耗電。(圖/ChatGPT AI生成)

晶片大廠安謀(Arm)執行長哈斯(Rene Haas)警告,如果人工智慧(AI)的能力持續增強,且在能源效率沒有提升,增設數據中心之舉,可能會消耗各國極大量的電力儲備。哈斯透露,雖然當前美國本土的AI數據中心,僅消耗4%的電力,但預期到2030年,這個新興熱門項目,將消耗全美20到25%的電力供應。在他看來,會導致這種現象,必須歸咎於大型語言模型(LLM),像是ChatGPT或谷歌Gemini,這些模型會在電力消耗上出現「貪得無厭」的情況。


 

華爾街日報》報導,事實上,哈斯並非唯一做出這種預測的人。國際能源署(IEA)的「2024年電力報告」預測,今年度全球AI數據中心的電力消耗量,將是2022年的十倍。主要原因在於,像ChatGPT這類使用大型語言模型的AI機器人,相比傳統搜尋引擎(如Google)需要更多的電力支持,根據估計顯示,對ChatGPT提出一次請求所消耗的電量,幾乎可提供10次Google搜尋使用。

更多新聞:谷歌聯手安謀推自研AI晶片 輝達臉綠股價下挫2%

該報告還警告,如果谷歌將其搜尋引擎,全面升級改用AI軟硬體配置,將導致其電力消耗增加十倍,每年需要額外10萬太瓦時(TWh)電力。無論美國或他國政府,都應該開始對數據中心(無論是否涉及AI),進行電力消耗的研究與規範。已經有特定國家,像是英倫三島的愛爾蘭,已經看見該國到2026年,境內數據中心將消耗三分之一的電力供給。可真正的大問題還沒到來,愛爾蘭就開始面臨電力短缺,當地有部份亞馬遜的網路服務伺服器,陸續受到電力限制的影響,衝擊其業務運作。
 


從現實面來看,想讓數據中心為省電犧牲效能,這完全不合乎邏輯。現在最好的選擇,是更好地提升AI系統的運算效率,在提升能力的同時,避免造成更大量的電力損耗,別讓AI成為下一個吃電妖怪。如果短時間做不到改善效能,也許換一種方式、自行取得更多電力,像亞馬遜在美國賓州收購一座由核能發電供應能源的數據中心,也許是另一種避免帶給民生用電困擾的辦法。


 

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



AI浪潮來襲

#AI#人工智慧#安謀#Arm#電力消耗#數據中心#LLM#大型語言模型#能源效率

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1933

0.1853

0.3786