后起之秀DeepSeek与Chat GPT-4,谁才是“低碳王者”?
先来说说DeepSeek。以DeepSeek-V3为例,它是一个强大的混合专家(MoE)语言模型,采用了多头潜在注意力(MLA)和DeepSeekMoE架构,还有独特的负载平衡策略和多令牌预测(MTP),支持128K长文本处理,极大提升了效率。
01 DeepSeek-V3 碳排放计算根据官方技术报告,DeepSeek-V3完整训练时间为278.8万 H800 GPU小时。假设 :每块H800 GPU的功率为300W,散热损耗约为1.3。碳排放计算如下:
DeepSeek-V3 碳排放计算
由此得出️DeepSeek-V3完整训练后的碳排放约是583.5吨。虽然不低,但我们再来算一下OpenAI的GPT-4训练的碳排放。
02 Chat GPT-4 碳排放计算据相关报告,训练GPT-4大约需要使用25000块英伟达A100 GPU,整个训练过程约三个月,折合为54M A100 GPU小时。A10080GB显卡稳定工作功耗按300W 计算:
Chat GPT-4 碳排放计算
综上,DeepSeek-V3的碳排放约为️583.5吨,Chat GPT-4的碳排放约为️8692吨。
️DeepSeek-V3碳排放仅相当于GhatGPT-4的7%,这主要得益于DeepSeek-V3高效的架构设计、低精度训练以及优化的流水线并行策略等。️这背后不仅是算法效率的质变,更折射出中国创新力量的绿色觉醒。
但是即便如此,DeepSeek-V3产生的583.5吨的碳排放量仍不可小觑。
我们从生活场景中日常用电角度出发,普通家庭每月用电量大约在200度左右,根据全国电力平均二氧化碳排放因子,每月排放约107.32kg(0.107吨)二氧化碳。那️583.5吨的碳排放相当于普通家庭用电5437个月,约453年的碳排放。更不用提Chat GPT-4的碳排放了。
AI的迅猛增长为人类带来了诸多便利,这是科技的进步。但站在可持续发展的十字路口,️如何平衡科技进步与环境保护间的关系,实现绿色可持续发展,是亟待解决的重大课题。
️结 语:低碳不是选择题,而是生存题。
当AI的智能不断突破极限,碳排放却可能成为锁住未来的枷锁。DeepSeek的低能耗启示我们,技术创新可以是解题钥匙,但行业协作与政策引导同样关键。
未来,或许每一行代码都需标注碳成本——️因为真正的进步,从不对地球“透支”。