【愚公系列】《人工智能70年》053-生成式Al的辉煌与难题(算力与能源的问题)

💎【行业认证·权威头衔】
✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家
✔ 开发者社区全满贯:CSDN博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主
✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者
🏆【荣誉殿堂】
🎖 连续三年蝉联"华为云十佳博主"(2022-2024)
🎖 双冠加冕CSDN"年度博客之星TOP2"(2022&2023)
🎖 十余个技术社区年度杰出贡献奖得主
📚【知识宝库】
覆盖全栈技术矩阵:
◾ 编程语言:.NET/Java/Python/Go/Node…
◾ 移动生态:HarmonyOS/iOS/Android/小程序
◾ 前沿领域:物联网/网络安全/大数据/AI/元宇宙
◾ 游戏开发:Unity3D引擎深度解析
🚀前言
无所不能的 ChatGPT,使人们对大语育模型的通用能力有了全新认识。

🚀一、算力与能源的问题
伊利亚·苏茨克维提出“预训练大模型已走到尽头,规模法则逐渐失效”的观点虽尚存争议,但他所指出的另一重瓶颈——算力限制,已成为行业公认的挑战。构建强大算力所需投资巨大、能耗惊人,是不争的事实。
以当前应用规模为例,ChatGPT 每日需服务约2亿用户,背后需数十万张高性能GPU卡提供算力支持。截至2024年底,我国字节跳动公司旗下的豆包大模型用户数达1.6亿,位居全球第二,其算力需求也高达十万量级GPU卡。如此庞大的算力规模,意味着极高的成本与能源消耗。
与传统互联网应用相比,大模型在理解、推理与生成任务中需执行更复杂计算,能耗差异显著。谷歌母公司Alphabet董事长约翰·亨尼斯曾在2023年2月指出,大模型单次交互成本可达传统关键词搜索的10倍。据披露,谷歌每次搜索耗电约0.3Wh,而大模型交互则为3Wh。尽管技术发展推动能效提升,当前大模型总能耗依然惊人:ChatGPT日处理2亿用户请求,耗电量超过50万度。
高运营成本使多数大模型企业难以长期推行免费策略,普遍转向收费模式。值得一提的是,我国企业DeepSeek凭借显著降低的成本,率先实现对用户免费,广受欢迎并引发同业效仿,为AI普惠发展开辟新路径。
除运营外,大模型训练亦属高能耗环节。知名大模型单次训练成本在数千万至数亿美元之间。例如,GPT-4训练一次耗电达2.4亿度;谷歌全年AI训练用电23亿度,相当于美国一个州首府所有家庭一年用电总量。
AIGC的能耗问题不仅限于电力,还包括水资源消耗。微软2022年用水量同比激增34%,达640万立方米,超过2500个奥运标准游泳池水量,主要原因正是AI算力设施冷却用水大幅增加。
AIGC的快速发展推动全球算力需求激增。国际能源署(IEA)数据显示,2022年全球数据中心耗电4600亿度,预计2026年将升至1万亿度,增幅超一倍,相当于日本全国年用电量。这一增长主要源于AI尤其是AIGC的广泛应用。
面对算力、成本与能耗的多重制约,行业持续寻求突破并已取得进展。2024年12月与2025年1月,我国深度求索(DeepSeek)公司相继推出DeepSeek-V3和R1开源大模型,性能媲美GPT-4o和Claude-3.5等顶尖模型,但训练成本仅为GPT-4o的二十分之一,服务成本为其十分之一,能耗显著降低。DeepSeek通过算法创新实现能效提升,为全球大模型发展提供新思路。
随着AIGC应用普及,算力与能耗需求仍将保持高速增长。清华大学高等研究院双聘教授、美国国家工程院外籍院士沈向洋在2024年11月大湾区科学论坛上指出:未来10年,年算力需求预计每年增长约4倍,10年累计增长达100万倍。这一预测凸显算力与能耗压力的长期性与严峻性。
为应对AIGC带来的能源挑战,各国正从技术创新、新能源应用和政策引导三方面发力:
- 技术创新:研发高能效专用AI芯片,优化模型架构与算法,探索以小模型实现近似大模型效果的技术路径;
- 新能源使用:全球数据中心加速转向光伏、风电、水电等绿色能源;
- 政策引导:多国出台数据中心能源政策,如我国要求新建大型及超大型数据中心全面达到绿色标准,并规定至2032年新能源使用比例须逐步提升至100%。
我国作为全球绿色能源发展的重要推动者,有望在破解AIGC能源难题方面发挥表率作用,推动AI在可持续轨道上高质量发展。
- 点赞
- 收藏
- 关注作者
评论(0)