大公產品

首页 > 新闻 > 正文

話你知/AI為何如此耗能?

時間:2025-10-06 05:02:35來源:大公报

  AI有多耗電?

  •勞倫斯伯克利國家實驗室的報告指出,到2028年,美國AI專用電力需求將升至每年165-326太瓦時,超過當前所有數據中心總用電量,可供應22%美國家庭,排放量相當於繞地球12萬圈或往返太陽1600次。

  •據統計,AI聊天機器人ChatGPT每天處理約10億次查詢,每次生成內容的耗電約0.0029度。換算下來,ChatGPT每日在全球的耗電量相當於10萬個美國家庭一天的用電量。

  •人工智能專家盧喬尼的一項研究表明,使用AI產生一張高清圖像所消耗的能源相當於為手機電池充滿電。

  AI為何耗電?

  •從芯片上分析,大語言模型需要龐大的算力支撐,特別是擁有平行運算能力的GPU(圖形處理器),而一塊GPU的能耗比CPU(中央處理器)高出10到15倍。如一塊英偉達A100 GPU功耗為400瓦,GPT-3訓練用到了1024塊A100芯片,而GPT-4則用了25000塊,數量的激增導致能耗顯著增加。

  •從運行機制上分析,雖然GPU架構非常適合AI算法,可以節省計算時間,不過目前使用率比較低,一般在32%到36%,且故障率高,導致訓練周期長,如GPT-4訓練耗時長達90至100天,進而引發長期的能源消耗。

最新要聞

最受歡迎