如何在没有漂绿的情况下使 AI 项目更环保
快速阅读: 《信息周刊》消息,人工智能重塑行业格局,带来洞察和效率,但也耗电量大,引发可持续性问题。企业和IT领导者需全面了解其影响,避免“漂绿”。可持续的人工智能需从能源、供应链、硬件等方面入手,注重治理和工程,结合可再生能源。同时,健全的碳核算和透明度至关重要,以确保人工智能项目的环境责任感。
对于各行各业的企业而言,人工智能正在迅速重塑格局。这项技术带来了更深层次的洞察、先进的自动化、运营效率和成本节约。然而,人工智能也带来了一些负担。这项技术耗电量巨大,影响从数据中心到训练和使用生成式人工智能模型的各个方面,引发了关于可持续性的关键问题。到2030年,人工智能可能会使美国的数据中心电力需求翻倍。因此,企业和IT领导者很容易发现自己处于人工智能带来的利益与风险之间的交火点。随着组织追求碳目标和其他可持续性问题,对这项技术缺乏清晰的认识——以及对不一致性的感知——可能会引发所谓的“漂绿”现象。可持续的人工智能涉及从直接为人工智能模型提供动力所需的能源到供应链、报告、硬件和数据中心运营等方方面面。它还可能引发关于组织何时何地应该使用人工智能——以及何时不应该使用的问题。
“可持续的人工智能是通过最小化环境影响来促进其整个生命周期中的可持续性。”普华永道可持续发展部门合伙人萨米·拉克什曼南表示。“目标不仅仅是减少人工智能的足迹。而是要使人工智能既有效又可持续。”
相关:圣克拉拉县平衡进步与可持续性
首席信息官和其他技术领导者面临的日益增长的挑战是全面了解人工智能的影响,包括那些能耗大约是其他芯片10倍的GPU。虽然没有公司希望错过人工智能带来的机会,但重要的是要认识到这项技术也伴随着成本。“组织有一种诱惑,会陷入一场没有考虑回报的人工智能竞赛。”高德纳公司的董事兼分析师奥特姆·斯坦希表示。零散或不一致的人工智能方法可能导致人们认为一家公司正在进行漂绿现象。“许多常见的人工智能应用直接与气候变化相关联。”麦吉尔大学计算机科学学院助理教授大卫·罗尼克说。他认为,将特定的人工智能计划视为净正面或负面并不是正确的方法。获得对人工智能如何影响可持续性的更全面理解至关重要。
漂绿问题通常围绕两个关键问题展开。首先,使用碳抵消的公司必须认识到,它们并不能减少由人工智能系统产生的排放。其次,粗略的报告只会带来更多问题而非解答。尽管量化人工智能产生的碳排放很困难——尤其是范围三排放——但缺乏透明度增加了公司被活动家和媒体盯上的可能性。但罗尼克表示,还有一个根本问题,即组织如何使用人工智能。“战略性地使用人工智能很重要。”它可以提高许多方面的效率——尤其是在自动化流程和优化系统方面——但也有很多情况它并没有提供任何显著的优势。这包括在每个问题上都使用生成式人工智能。“在很多情况下,人类做出的决策更好。”他说道。
随着公司追求碳减排目标,重要的是要识别出哪些地方能提供具体的战略优势——以及它如何以积极和消极的方式影响可持续性。“可持续的人工智能不是偶然发生的——它需要适当的治理和工程来创建高效且有益于生产力和创新的系统。”拉克什曼南解释道。
破解密码 将人工智能策略转化为更广泛的可持续性问题有助于建立基于可再生能源的能源框架——包括风能、太阳能和小型模块化反应堆(SMRs)等新兴核能来源。虽然这种方法不会直接降低人工智能的能源需求,但它可以显著减少碳排放量。
相关:爱荷华州正面临数据中心和水资源需求的挑战
“挑战在于验证标榜为可持续或无碳的能源是否真正是可再生的。”拉克什曼南指出。因此,他建议组织采用透明工具,如可再生能源证书(RECs)和购电协议(PPAs),这些工具有助于跟踪可再生能源基础设施的全生命周期影响。还有实际步骤可以帮助将人工智能与可持续性倡议对齐。这包括改进数据中心效率,例如更好的硬件和了解何时CPU比GPU更优。它还涉及负责任的数据实践,如通过修剪和采样优化人工智能算法和模型,并通过迁移学习显著减少计算需求。迁移学习涉及使用一个针对某一任务训练的模型来改善相关任务的结果。拉克什曼南指出,在水平或跨领域训练和推理模型可以减轻各部门和团队重复过程的需要。例如,“总结文件是一个可重复的过程,无论它与可持续性还是税务文件有关。没有必要为了同一能力而两次训练系统。”拉克什曼南说,最终目标是采取一种整体方法,围绕创新和更大程度使用可再生能源形成紧密的轨道。例如,如果一个组织使用碳抵消,他建议将该计划与有意义的脱碳策略相结合。“这确保抵消措施补充了更广泛的可持续发展目标。这使得人工智能项目既具有创新性又具有环境责任感。”
超越算法 避免漂绿现象还需要健全的碳核算实践,能够测量和追踪人工智能排放。越来越多的咨询公司和私营企业提供了工具,用于追踪人工智能排放并根据实时电网条件优化能源使用。测量结合对人工智能和数据中心能源消耗的深入分析,可以以其他方式提高效率。“有办法利用人工智能来分析和改善电力消耗,包括将人工智能放在边缘。”德勤风险咨询负责人兼全球科技领导人吉利安·克罗斯恩说。“并非所有事情都需要通过数据中心进行。”人工智能还可以调整模型大小并产生其他见解和收益,以抵消其电力需求。
最后,密歇根大学罗斯商学院的道教授托马斯·P·莱昂表示,重要的是避免过度营销声明或发布数据,向公众和投资者呈现不切实际的积极画面。组织必须能够全面证实其关于人工智能和可持续性的声明,通常是通过指标和第三方验证。通过客户、投资者、合作伙伴和员工的关键部分实现透明度,漂绿的风险就会减小。“组织应该退一步思考如何有效地使用人工智能。”罗尼克说。“存在合法且高效的使用案例,但也有很多与人工智能相关的能源浪费。没有详细的评估和明确的理解各种因素,风险就会增加。”
(以上内容均由Ai生成)