SEC 强调关注“AI 清洗”,尽管执法速度明显放缓
快速阅读: 《JD Supra》消息,美国SEC重申将严厉打击与“AI漂绿”相关的欺诈行为,重点关注AI能力描述的真实性和透明度,提醒企业加强AI治理和信息披露,以防范执法风险。
近日,美国证券交易委员会(SEC)再次强调,将继续把人工智能相关不当行为视为重点执法领域之一。在2025年5月15日由Docket Events主办的西海岸证券执法论坛上,SEC执法部门及新组建的网络与新兴技术部门的高级官员重申,打击与“AI漂绿”相关的欺诈行为是当务之急。“AI漂绿”指的是公司关于其人工智能能力的实质性虚假和误导性声明。这些评论进一步明确了此前三份客户警示中探讨的趋势——即SEC在该部门调整方向以及主席保罗·阿特金斯推动的“回归基础”议程背景下,如何分配执法资源。
近日,美国证券交易委员会(SEC)再次强调,将继续人工智能相关不当行为视为重点执法领域之一。这些最新声明进一步明确了此前三份客户警示中探讨的趋势。每份警示内容概要如下:
**第一份警示:**
SEC重点关注公共公司和初创企业在描述人工智能能力时是否透明和真实。特别是,SEC审查了公司在预测数据分析、人工智能驱动的交易算法、聊天机器人功能以及人工智能生成的投资建议方面的声明。
**第二份警示:**
SEC特别关注技术是否透明的问题,即公司是否准确描述了真正的机器学习功能,还是仅仅用“人工智能”标签包装基于规则的自动化。同时,这些信息是否负责任地传达给了客户。
**第三份警示:**
SEC还被赋予评估涉及通过网络入侵获取重要非公开信息和社会媒体驱动欺诈案件的任务。这表明SEC不仅关注人工智能本身,还关注其与其他技术结合所产生的潜在风险。
这些发展共同反映了执法立场的演变,结合传统的反欺诈理论,并聚焦于由人工智能和其他新兴技术引发的独特透明度、治理和投资者保护问题。以下是CETU最近的言论总结,将其置于更广泛的执法背景中,并为研发、应用或推广人工智能相关产品和服务的公司、投资顾问、经纪交易商及其他市场参与者提供实用建议。
**证券执法论坛发言:**
执法部门成员Madiha Zuberi律师的发言概述了CETU的任务并强调了关注领域:
Zuberi强调,工作人员正在审查公共公司和初创企业如何向客户和投资者描述其人工智能能力。该部门正在评估包括预测数据分析、人工智能驱动的交易算法、聊天机器人功能以及人工智能生成的投资建议等内容。Zuberi指出,“技术是否透明”仍然是一个关键问题——换句话说,发行方是否准确描述了真正的机器学习功能,还是仅仅用“人工智能”标签包装基于规则的自动化,并且这种信息是否负责任地传达给了客户。
Zuberi还提到,除了加密货币和AI漂绿执法外,该部门还被赋予评估涉及通过网络入侵获取重要非公开信息和社会媒体驱动欺诈案件的任务。
**执法官员强调的最近行动:**
Zuberi指出了2024年与投资顾问Delphia Inc.和Global Predictions Inc.的和解案例,这些案例均因涉嫌AI漂绿而解决,代表了CETU可能感兴趣的案件类型。Delphia和Global Predictions的和解涉及两家公司对其投资流程中声称使用AI的虚假和误导性表述,如在SEC文件、新闻稿和网站上的声明。这两家公司同意解决SEC的指控并支付总计40万美元的民事罚款。
此外,SEC西部地区执法副主任凯特·佐拉兹强调了仍在进行中的Nate, Inc.案件(也将在下文总结)。委员会重申了对传统案件的“回归基础”方法:
佐拉兹强调内幕交易、资本筹集中的虚假陈述和违反受托责任仍是执法部门的核心优先事项。她还重申,SEC不会放弃市场监管,表示“有关SEC已死的说法被严重夸大”。
**近期执法环境:言论如何与SEC和DOJ的近期活动保持一致**
正如我们在2025年4月16日的客户警示中讨论的Nate, Inc.指控以及2025年1月28日的客户警示中讨论的Presto Automation Inc.和解案中所述,司法部和SEC已经表现出愿意在AI声明超出吹嘘范围并进入欺骗领域时提起平行刑事和民事诉讼。SEC执法部门最近的言论现在通过设立一个超越加密货币范围,涵盖AI、网络入侵和社会媒体驱动不当行为的专门部门,将这一方法制度化。
同样,在2025年3月27日的SEC圆桌会议上(参见我们的2025年4月3日警示),代理主席马克·乌耶达强调了对AI监管的“技术中立”方法:警告过于具体的监管方式并鼓励创新,但确保通过有效且成本效益高的法规保护投资者。加州的发言确认了这一信息:工作人员的重点是直接影响投资者的AI应用。
**关键见解和收获**
SEC最近的言论是最新也是最明确的信号,表明AI漂绿和更广泛的人工智能滥用不是边缘问题,而是核心执法重点。做出关于其人工智能能力的公开声明的公司应预期这些披露将持续受到审查。通过强有力的治理结构和透明、准确的沟通,市场参与者可以降低执法风险,并在人工智能时代实现可持续创新。
具体而言,鼓励公司考虑以下几点:
**实施人工智能治理框架:**
虽然许多组织认为加入“人工智能浪潮”越早越好,但组织首先需要评估人工智能在整个组织内的开发、使用或利用情况,以识别与AI使用相关的风险。因此,建议组织采用治理框架,解决与AI相关的独特风险,并包括跨职能的主题专家小组(例如业务功能、法律、合规、隐私和网络安全专业人士),以评估AI能力并确保其适当报告给市场。
构建围绕AI相关披露的强大披露与管控机制对于抵御任何AI漂绿索赔或查询至关重要。
**实施人工智能治理框架:**
适当的文档记录。
组织应考虑记录AI系统的具体技术架构,以便在营销材料、投资者演示文稿或公开文件中支持系统能力的声明。文档还应涵盖数据来源、模型治理、人机协作流程和局限性。如果功能依赖确定性代码、机器人过程自动化或人工干预,组织的声明应清楚说明这一点。
**持续测试:**
人工智能技术的微小变化可能导致整个系统可靠性及准确性发生重大变化。因此,建议组织定期进行模型测试,并确保模型性能或可扩展性声明随时间推移依然准确。
**加强对新兴技术声明的控制:**
披露委员会和萨班斯-奥克斯利法案(SOX)302子认证程序可以扩大以涵盖AI及其他技术声明。当投资者材料提及可能影响融资决策的新颖或复杂功能时,应进行更严格的审查。
**监测监管发展:**
尽管SEC目前依赖现有法规,但可能会有新的立法、规则制定或解释性指导出台。公司应关注演讲、执法行动及员工声明,了解关于可解释性、偏见和第三方AI供应商的不断发展的期望。
**做好应对多重指控的准备:**
Nate, Inc.案件显示,误导性AI声明可能引发刑事电信欺诈及证券欺诈指控,以及民事处罚、违法所得追缴及禁令救济。建议企业将潜在的并行程序纳入事件响应预案。
[查看来源]
(以上内容均由Ai生成)