Cohen Milstein 探讨在 AI 淘金热中管理企业风险
快速阅读: 据《CLS 蓝天》最新报道,本文探讨了AI热潮下的投资风险,包括AI漂绿、幻觉、第三方和内部风险及法律风险。投资者已开始起诉夸大AI能力的公司。董事会需设立AI治理委员会,定期讨论AI治理,并提升AI素养以保护股东利益。
数十年来,人工智能(AI)一直是科幻小说中的内容。如今,它正在推动历史上规模最大的投资热潮之一。仅在2024年,风险投资公司就向AI初创企业投入了超过2090亿美元的资金——比上一年增长了30%。由思科以280亿美元收购Splunk等主要科技收购案主导的潮流,旨在扩展AI能力,而生物技术公司则在AI驱动的创新上投资了56亿美元,其中包括诺华与Generate Biomedicines之间价值10亿美元的合作协议。甚至美国政府也在大力押注AI,最近宣布的涉及甲骨文、OpenAI、软银和MGX的5000亿美元Stargate计划就是一个例子。然而,并非所有消息都是积极的。去年1月,中国AI平台DeepSeek通过其更快、更便宜的AI建模颠覆了美国芯片制造商市场,随即成为大规模网络攻击的目标,这一事件引发了对一些公司可能隐瞒漏洞或夸大其AI潜力的担忧,让人想起1990年代的互联网泡沫。
在这篇文章中,我们将探讨AI淘金热中的关键风险、投资者对AI能力透明度的期望,以及公司董事会可以采取哪些措施来最小化AI诉讼风险。
一个崭新的世界
AI不仅仅是一个短暂的趋势——它是一种内在的技术,可以融入商业运营的各个方面,从优化供应链和财务建模到革新药物发现。例如,生物技术初创公司Absci使用生成式AI设计全新的抗体,以加速药物开发,这是以前认为不可能实现的方式。鉴于AI的广泛应用和变革潜力,公司董事应关注其发展方向,并判断他们是否适当地应对了利用这项技术带来的固有风险。例如,观察人士指出,将AI货币化的热潮已经超过了监管框架和风险管理的努力。一些行业领袖和专家担心,AI的快速进化可能会超出公司的控制范围,从而为董事会和整个人类带来不可预见的风险。
潜在的AI风险:只是极客们的愚人金?
AI不仅仅是一个短暂的趋势——它是一种内在的技术,可以融入商业运营的各个方面,从优化供应链和财务建模到革新药物发现。例如,生物技术初创公司Absci使用生成式AI设计全新的抗体,以加速药物开发,这是以前认为不可能实现的方式。鉴于AI的广泛应用和变革潜力,公司董事应关注其发展方向,并判断他们是否适当地应对了利用这项技术带来的固有风险。例如,观察人士指出,将AI货币化的热潮已经超过了监管框架和风险管理的努力。一些行业领袖和专家担心,AI的快速进化可能会超出公司的控制范围,从而为董事会和整个人类带来不可预见的风险。
一个主要问题是“AI漂绿”,即公司夸大或歪曲其AI能力,以暗示自己具有竞争优势。类似于“绿色漂绿”,即公司虚假宣传环保成就,AI漂绿可能误导投资者并抬高公司估值。在展示AI应用优势的竞争中,公司可能会向市场过度宣传其AI能力。沟通风险也构成了挑战。像ChatGPT这样的生成式AI系统容易出现“幻觉”,由于输入错误,产生不正确、有偏见或完全编造的信息。这些由AI生成的不准确信息可能使公司面临诉讼,包括欺诈、诽谤和消费者保护索赔。法律学者警告说,随着企业越来越多地依赖AI进行客户服务、营销和决策,幻觉的风险可能会加剧。
第三方风险是另一个重大问题。许多企业依赖外部的AI驱动工具和API,如PayPal的在线支付API或GitHub Copilot用于软件开发。这些服务要求公司将敏感和专有数据上传到所谓的安全平台上。然而,近期OpenAI和DeepSeek的数据泄露事件凸显了漏洞,促使黑客瞄准AI驱动的系统。涉及Progress Software的MOVEit数据泄露事件是这种不断增长威胁的另一个例子。除了安全问题,未能适当审查AI供应商的公司还可能无意中将偏见引入人力资源平台和其他企业级系统,导致声誉损害和潜在的法律后果。
内部风险也是一个紧迫的问题。随着AI更深入地融入业务运营中,关键AI技术的系统性失败可能产生深远影响。去年CrowdStrike的中断事件虽然与AI无关,但扰乱了全球旅行、医疗系统、股票市场和银行服务,突显了过度依赖复杂且未完全理解的技术的危险。新的AI系统可能会带来显著的系统性风险,需要董事会提高警惕和监督。
法律风险是另一个日益增长的担忧,特别是在医疗保健和保险领域,AI驱动的索赔拒绝正面临越来越多的审查。随着时间的推移,AI模型可能会发展出自我强化的行为,虽然最初合法,但可能会演变为非法歧视。这强调了一个关键的AI治理原则:公司不能简单地部署AI并假设它会在没有持续监控的情况下公平合法地运行。
填补空白:投资者在要求公司对AI讨论负责中的作用
投资者已经在积极追求与AI相关的证券集体诉讼和股东衍生诉讼。早期迹象表明,AI漂绿目前在这些诉讼中占据了中心位置。根据NERA的数据,2024年出现了13起与AI漂绿相关的案件,是2023年的两倍多。迄今为止最著名的AI漂绿证券集体诉讼之一是对Zillow(纳斯达克:Z)及其衍生诉讼的认证案件。这两起案件都指控Zillow夸大了其现已停运的Zillow Offers项目中使用的专有AI驱动定价模型的预测能力。其他最近的AI相关证券集体诉讼包括:
– 奇异性科技(纳斯达克:ODD):这家以色列美容和健康平台在IPO前被指控错误地描述了其专有AI技术的能力,声称能够满足客户需求并推动销售。结果发现,“AI”不过是一个基本的问卷调查。
– 创新数据(纳斯达克:INOD):该公司声称拥有专有的AI系统,但实际上大部分工作是由成千上万的低薪海外工人完成的。
– 弹性NV(纽约证券交易所:ESTC):投资者指控该公司多次夸大其销售业务的稳定性。该诉讼称Elastic很可能无法达到之前发布的2025财年的收入指引。
AI漂绿诉讼的增加表明投资者已经开始反对关于公司AI能力的错误信息和误导性陈述。AI淘金热与过去的市场泡沫惊人地相似,从互联网时代到SPAC狂潮——夸大的声明导致了市场修正和一波投资者诉讼。如果公司继续对其具有AI竞争优势的主张过度承诺而未能兑现,它们可能会面临类似的清算。
董事们该怎么办?采用AI保护措施以保护股东价值
公司董事会应该注意到法律环境和潜在的责任要求,不仅要认识到AI的力量,还要认识到建立AI风险管理监督的紧迫性。机构投资者将坚持要求公司在AI能力透明度、负责任的AI部署和管理新兴风险方面承担责任。
采用AI保护措施以保护股东价值
尽管AI在业务运营中的整合不断增加,但在许多情况下,公司的AI治理仍然令人担忧。2024年德勤全球对57个国家近500名董事会成员和高管的调查显示,只有14%的董事会在每次会议上讨论AI,而45%尚未将其列入议程。此外,虽然94%的企业增加了AI支出,但在过去两年内只有6%的公司制定了负责任使用AI的政策,而仅有5%的高管报告称实施了任何AI治理框架。
为了加强AI监督,投资者将期望董事采取几个关键步骤。公司董事会应设立专门的AI治理委员会,评估风险,监督AI开发和实施,并确保符合监管要求。鉴于AI在各行业的广泛使用——72%的世界组织已将其集成到至少一项业务功能中,而21%已全面嵌入其运营中——明智的做法是公司的首席技术官、首席法律顾问、首席风险官和审计委员会至少每年讨论一次AI治理,或许每季度一次。
董事应与第三方合作识别风险、漏洞和伦理问题。最后,董事会还应增强AI素养,以确保董事充分了解他们负责监督的技术。
本文来自Cohen Milstein Sellers & Toll PLLC。
(以上内容均由Ai生成)