AI有多耗電?
•勞倫斯伯克利國家實驗室的報告指出,到2028年,美國AI專用電力需求將升至每年165-326太瓦時,超過當前所有數據中心總用電量,可供應22%美國家庭,排放量相當於繞地球12萬圈或往返太陽1600次。
•據統計,AI聊天機器人ChatGPT每天處理約10億次查詢,每次生成內容的耗電約0.0029度。換算下來,ChatGPT每日在全球的耗電量相當於10萬個美國家庭一天的用電量。
•人工智能專家盧喬尼的一項研究表明,使用AI產生一張高清圖像所消耗的能源相當於為手機電池充滿電。
AI為何耗電?
•從芯片上分析,大語言模型需要龐大的算力支撐,特別是擁有平行運算能力的GPU(圖形處理器),而一塊GPU的能耗比CPU(中央處理器)高出10到15倍。如一塊英偉達A100 GPU功耗為400瓦,GPT-3訓練用到了1024塊A100芯片,而GPT-4則用了25000塊,數量的激增導致能耗顯著增加。
•從運行機制上分析,雖然GPU架構非常適合AI算法,可以節省計算時間,不過目前使用率比較低,一般在32%到36%,且故障率高,導致訓練周期長,如GPT-4訓練耗時長達90至100天,進而引發長期的能源消耗。