廣告
xx
xx
"
"
回到網頁上方

AI成吃電吸水怪獸 晶片業者研發省能CPU應戰

記者 俞璟瑤 報導
發佈時間:2024/08/14 15:03
最後更新時間:2024/08/14 15:03

AI協助解決越來越多難題,但也讓更多專家出面警告,大量的AI使用可能造成嚴重電力缺口。甚至行政院長卓榮泰都鬆口,不排除重啟核電。尤其美國加州大量AI高科技企業,預計到了2030年,將消耗相當於美國三分之二住家用戶的電量。包括微軟以及谷歌因此都投入能源開發,晶片設計業者也研發出省電的半導體,要從源頭減少能源消耗。

各種AI模型,等待使用者敲下指令,大量的內容快速呈現,這也讓人對未來的AI應用有更多的想像。但專家卻擔心夢想還來不及實現,就被現實的殘酷給打敗。

 
 
安謀資深副總 瓦基雅妮:「如果現在不開始以不同的方式思考電力問題,將永遠不會看到這個夢想,或這項有潛力的技術真正改變我們的生活。」
 
業者並不是危言聳聽,AI需要利用資料中心系統大量運算,如果進行同樣的搜尋,AI系統消耗的電量是Google的十倍,相當於一個5瓦特的電燈一小時的用電量。如果要請AI生成一張圖,用電量則是能充飽一支手機。預估到2030年,美國高達16%的電量都得供應讓AI系統使用,相當於全美三分之二家庭用戶的用電量。
 
數據中心執行副總 坦奇:「數據中心本身的建築可要大約64兆瓦的電力,許多部份為單一客戶服務,整個空間都會租給他們,考慮AI應用時,這些數字可能會大幅增加,超過這個數字,達到數百兆瓦,64兆瓦到100兆瓦,(平均來說是能供給多少家庭用電) 每個數據中心的電力相當於,數萬個家庭的用電量)。」
 
 
處理AI資訊的數據中心的用電量,跟一般的資料中心相比,是普通數據庫的1.8倍。因此不少城市婉拒數據處理中心進駐的請求。
 
加州大學河濱分校助理教授 任紹磊:「觀察夏季的用電高峰,如果數據中心不減少負載 可能會停電,基本上在用電高峰時段,你不是得要求居民關掉冷氣,就是要請AI公司停止機器學習。」
 
目前北加州就有大量的數據處理中心,掌管全世界高達七成的網路資訊流量,一旦電力不堪負荷,將造成嚴重的後果。因此不少業者將資料中心遷移到電力資源比較豐富的地區。OpenAI 以及微軟也都跟美國的核融核新創公司簽約,希望能用不同的方式獲取大量的電力。
 
數據中心執行副總 坦奇:「Vantage在維吉尼亞州,過去的一年裡,打造了100兆瓦的天然氣發電廠,為我們客戶運行一個專用的數據中心,在那裡,我們電力是自給自足的,我們向那裡的數據中心提供電力,完全不需要公共電網。」
 
不只耗電,AI運算的用水量同樣高的嚇人,為了幫數據中心的機器降溫,運算10到50個AI指令,就得消耗一個保特瓶的乾淨水源。要訓練好一個AI模型,得消耗70萬公升的水。如果到2027年,全球AI運算則是要用掉高達66億立方公尺的水,相當於丹麥全國用水量的四倍。
 
數據中心執行副總 坦奇:「所以現在業界有很多關於支持AI運算的討論,像是空氣冷卻,將周圍流動的空氣轉向水冷或液冷,可以直接帶到晶片本身 是更有效的冷卻,但對於許多數據中心來說,這需要大量的改造,Vantage是在大約六年前改裝,使我們數據中心樓上利用冷水循環。」
 
面對這麼大量的能量消耗,業者也從源頭開始改善,研發出更有效益的晶片,
 
 
安謀資深副總 瓦基雅妮:「這裡是AWS Graviton處理器,它比競爭對手的架構節省60%的電力。」
 
包括輝達號稱史上最強的AI晶片Blackwell,就有使用這款CPU,強調省能效益達到25倍。可以讓數據中心減少一成五的能源消耗。
 
安謀資深副總 瓦基雅妮:「如果考慮到數據中心的規模,15%幾乎相當於20億次ChatGPT查詢,想想看這就可以為20%的美國家庭供電,而且僅僅用這處理器就能節省15%的電力。」
 
包括蘋果以及高通,則是利用設備進行AI運算,減少透過雲端處理來降低水電的消耗。但專家強調,未來AI勢不可擋,如何面對越來越高的水電消耗量,成為發展高科技國家必須面對的難題。

◤最新車壇資訊◢

👉2024購車風向球! 未來7成民眾考慮買新車

👉全台購車偏好大公開,看看你的車上榜沒

👉最新車訊不漏接,一鍵輕鬆get不費力


#AI#電力#半導體#能源#核電

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1179

0.0601

0.178