发布不列颠哥伦比亚省工程师和地球科学家关于在专业领域使用人工智能的实践咨询
快速阅读: 据《JD Supra》最新报道,2024年11月22日,不列颠哥伦比亚省工程师和地球科学家协会发布《在专业实践中使用人工智能》咨询文件,为会员提供AI使用的指导原则。文件讨论了AI偏见、可信度、透明度、可解释性、不可重复性和保密性等风险因素。建议在专业实践中增加AI文档检查步骤,并强调专业人士需评估和管理AI相关风险,确保公众安全。
2024年11月22日,不列颠哥伦比亚省工程师和地球科学家协会(英属哥伦比亚省工程师和地球科学家协会)发布了《在专业实践中使用人工智能》的实践咨询文件,为英属哥伦比亚省工程师和地球科学家协会注册人员提供了在加拿大不列颠哥伦比亚省工程和地球科学专业人士中使用人工智能(人工智能)的指导原则。该实践咨询包括与专业实践中使用人工智能相关的指南、风险因素及考虑事项,这些对设计专业人士来说可能是相关的,无论其是否为英属哥伦比亚省工程师和地球科学家协会注册成员。该实践咨询讨论了专业实践中使用人工智能的一些风险因素,并提出了在考虑这些风险因素时应询问的问题。根据该实践咨询,在评估人工智能系统输出时需要考虑的风险因素包括偏见,这些偏见分为计算/统计偏见和人为认知偏见。计算/统计偏见是由系统性错误引起的,可能会影响输出,例如用于人工智能训练集的样本代表性不足;人为认知偏见则是指人类在没有依据的情况下更信任人工智能的输出而非自己的判断。可信度是评估人工智能系统结果时需要考虑的另一个风险因素。该实践咨询在国家标准与技术研究院(国家科学技术研究院)定义可信人工智能系统的背景下讨论了可信度,即“那些没有有害偏见且具有有效、可靠、安全、安全、有弹性、可问责、透明、可解释、可解读、增强隐私性和公平性的特征”的系统,并将人工智能系统中的风险降低或管理到利益相关者可以接受的水平。该实践咨询指出,透明度、可解释性和可解读性有助于人类理解人工智能系统,这对涉及公共安全、健康和福利的工作尤为重要。该实践咨询还指出,根据国家科学技术研究院《可信人工智能:管理人工智能风险》,透明度反映了关于人工智能系统及其输出的信息可供与其交互的个人获得的程度;可解释性指的是人工智能系统运作机制的表示形式;可解读性指的是人工智能系统输出在其设计功能目的背景下的含义。非重复性,即无法复制人工智能系统产生的结果,例如当相同的输入产生不同的输出时,被列为在评估人工智能系统时应考虑的风险因素。保密性,即第三方可能控制人工智能系统,任何输入到人工智能系统中的信息,包括任何机密信息,可能会变得对第三方可访问并用于训练人工智能模型,也被列为在评估人工智能系统以供专业实践时应考虑的风险因素之一。该实践咨询建议在英属哥伦比亚省工程师和地球科学家协会《工程和地球科学工作文档检查标准指南》第3.3.3节规定的“文档检查”过程中增加一些针对人工智能的具体步骤,如记录使用的人工智能系统版本,开发测试用例通过人工智能系统,记录输出结果,记录输入和输出数据以进行验证和确认,并考虑动态人工智能系统每个输出的验证需求,因为“输出可能基于新的学习而变化,因此结果可能从一次使用到另一次使用以及随着时间推移而有所不同”。根据该实践咨询,工程和地球科学专业人士必须评估、理解,并管理和减轻与工作中使用人工智能系统相关的危害,因为他们有道德责任“将公众的安全、健康和福利置于首位”。该实践咨询引用国家科学技术研究院《人工智能风险管理框架》附录B:“人工智能风险与传统软件风险的不同”,指出人工智能相关的风险不同于传统软件风险,因此,如果工程和地球科学专业人士打算在工作中使用人工智能系统,则他们应该了解并熟悉该系统的工作原理,因为他们对其工作的专业责任包括由人工智能系统生成的工作或包含人工智能输出的工作,以及任何人工智能幻觉。设计专业人士在将人工智能系统融入其专业实践中时,可能希望参考这些指南。然而,如果有任何关于设计专业人士在使用人工智能系统方面可能受到的规则或法规的问题,他们应考虑聘请专注于设计专业领域内人工智能问题的律师。
(以上内容均由Ai生成)