[新聞] AI 伺服器用電量等於一小國,研究:沒必

看板 Gossiping
作者 ljsnonocat2 (凡所有相皆是虛妄)
時間 2023-10-12 21:31:31
留言 0則留言 (0推 0噓 0→)

1.媒體來源: 科技新報 2.記者署名: 黃 嬿 3.完整新聞標題: AI 伺服器用電量等於一小國,研究:沒必要每個 App 都有 AI 4.完整新聞內文: 人工智慧將會成為人類的第二大腦,但也是頭碳排怪獸。數據科學家分析,到 2027 年 AI 伺服器每年使用的電力相當於阿根廷、荷蘭和瑞典等小國一年的用電量,而且這還是保守估計,作者提醒,每個人應該認真思考 AI 的必要性。 阿姆斯特丹自由大學商業與經濟學院博士候選人 Alex de Vries,他也是研究公司 Digiconomist 創辦人,定期公布比特幣能源消耗指數。這次他想知道 AI 伺服器的電力消耗量,但資料太少,他只能透過 Nvidia A100 伺服器預計銷量計算電力消耗,Nvidia 占 AI 晶片市場 95%。 研究基於 2027 年 Nvidia 可能會出貨 150 萬台此類伺服器,乘以伺服器的用電量,估計屆時 AI 伺服器電力消耗與荷蘭、瑞典等小國一年用電量一樣多。研究中特別強調推理階段,他說先前研究關注模型訓練階段的用電量,但他認為,推理階段消耗的能源其實更可觀。 以 ChatGPT 為例,OpenAI 需要 3,617 台基於 Nvidia HGX A100 平台的伺服器,總共配備 28,936 個 GPU,等於每天的能源需求為 564 MWh。相較之下,GPT-3 模型訓練階段估計所使用的電量為 1,287 MWh。 研究假設是市場對 AI 的興趣不減,以及 AI 晶片的可用性,但是作者認為,由於 Nvidia 生產能力有限,因此當前的硬體和軟體全面採用 AI 不太可能迅速發生。但即使 Nvidia 晶片供應有限是 AI 成長的瓶頸,企業也不會停止 AI 發展,現在都急於尋找替代來源。 一些專家已呼籲企業在設計下一代 AI 硬體和軟體時應考慮電力消耗,但專家悲觀認為,市場競爭激烈,企業不可能有餘裕考慮環境影響。除了電力問題,為了冷卻資料中心的水量也非常可觀,研究發現,每次使用聊天機器人回答問題,就需要 1 瓶水來冷卻。根據微軟公布的資訊,由於資料中心冷卻需求增加,去年用水量大增 34%。Gogole 也報告 20% 的成長,加州大學研究人員認為是生成式 AI 使用增加導致。 加州新法逼企業更透明 加州與氣候有關的法案一直走在世界之先,最近加州州長 Gavin Newsom 簽署兩項重要的氣候揭露法,規定所有在加州開展業務的大公司,包括 OpenAI 和 Google 等 AI 密集型公司在氣候風險資訊方面都必須更加透明。 法案要求所有全球年收入超過 10 億美元的私人公司,2026 年揭露營運產生碳量,到 2027 年必須揭露供應鏈中產生的碳量。2026 年,年收入超過 5 億美元的公司,也必須公布與氣候相關的財務數據。外媒評論指出,該規定在美國尚屬首例,可能有上萬家公司受到影響,這些法律也可能產生超出州界的影響。 研究作者呼籲必須針對 AI 的永續性提出質疑,科技公司需要提高透明度,並為整個 AI 開發制定更謹慎的方法,由於 AI 不能解決所有問題,人們也應該思考應用程式是否真的都需要 AI。 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體: https://technews.tw/2023/10/12/ai-server-power-consuming-is-huge/ 6.備註: 不過比較起來 AI總比挖礦稍微有用多了 之前全世界把電力浪費在挖虛擬貨幣真的蠻怪的 希望AI除了聊天 繪圖之外 能對普通人的生活更有幫助 --
※ 批踢踢實業坊(ptt.cc), 來自: 42.77.204.41 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1697117493.A.3F5.html

您可能感興趣