晶片大廠安謀(Arm)執行長哈斯(Rene Haas)警告,如果人工智慧(AI)的能力持續增強,且在能源效率沒有提升,增設數據中心之舉,可能會消耗各國極大量的電力儲備。哈斯透露,雖然當前美國本土的AI數據中心,僅消耗4%的電力,但預期到2030年,這個新興熱門項目,將消耗全美20到25%的電力供應。在他看來,會導致這種現象,必須歸咎於大型語言模型(LLM),像是ChatGPT或谷歌Gemini,這些模型會在電力消耗上出現「貪得無厭」的情況。
《華爾街日報》報導,事實上,哈斯並非唯一做出這種預測的人。國際能源署(IEA)的「2024年電力報告」預測,今年度全球AI數據中心的電力消耗量,將是2022年的十倍。主要原因在於,像ChatGPT這類使用大型語言模型的AI機器人,相比傳統搜尋引擎(如Google)需要更多的電力支持,根據估計顯示,對ChatGPT提出一次請求所消耗的電量,幾乎可提供10次Google搜尋使用。
更多新聞:谷歌聯手安謀推自研AI晶片 輝達臉綠股價下挫2%
該報告還警告,如果谷歌將其搜尋引擎,全面升級改用AI軟硬體配置,將導致其電力消耗增加十倍,每年需要額外10萬太瓦時(TWh)電力。無論美國或他國政府,都應該開始對數據中心(無論是否涉及AI),進行電力消耗的研究與規範。已經有特定國家,像是英倫三島的愛爾蘭,已經看見該國到2026年,境內數據中心將消耗三分之一的電力供給。可真正的大問題還沒到來,愛爾蘭就開始面臨電力短缺,當地有部份亞馬遜的網路服務伺服器,陸續受到電力限制的影響,衝擊其業務運作。
從現實面來看,想讓數據中心為省電犧牲效能,這完全不合乎邏輯。現在最好的選擇,是更好地提升AI系統的運算效率,在提升能力的同時,避免造成更大量的電力損耗,別讓AI成為下一個吃電妖怪。如果短時間做不到改善效能,也許換一種方式、自行取得更多電力,像亞馬遜在美國賓州收購一座由核能發電供應能源的數據中心,也許是另一種避免帶給民生用電困擾的辦法。
◤Blueseeds永續生活◢