控制 AI 公司的一个建议:保险
快速阅读: 《CNET 公司》消息,生成式人工智能的快速发展催生了数十亿美元的产业,但监管却相对不足。西南偏南论坛上的专家表示,当前的监管甚至不如对食品卡车的监管严格。哈佛大学教授劳伦斯·莱西格建议,要求人工智能开发者购买保险可以创建市场激励,促进责任和安全规范的制定。此外,透明度和信任是确保AI安全的重要因素,需建立类似FDA的监管机构来规范AI开发。
生成式人工智能的迅速崛起几乎在一夜之间打造了一个价值数十亿美元的产业,但在西南偏南(South by Southwest)的分论坛上,与会者表示,大型人工智能公司面临的监管比奥斯汀、德克萨斯州会议之外排队的企业要少。“对这项技术的监管比对食品卡车的监管还要少,”生命未来研究院(未来生命研究所)未来项目主任艾米莉亚·贾沃斯基(艾米莉亚·贾沃斯基)在周一的SXSW分论坛上说。“部分原因是我们更了解食品卡车,而不是这项技术,”前OpenAI(ChatGPT的开发商)安全研究员丹尼尔·科科塔吉洛(丹尼尔·科科塔吉洛)指出,他于2024年离职,以呼吁行业需要更多的安全性和透明度。人工智能的飞速发展和该技术固有的复杂性使得制定规则和设置护栏变得尤其困难,这超出了政治考虑的范围。但是有许多想法,包括哈佛大学法学院教授劳伦斯·莱西格(劳伦斯·莱西格)提出的:要求人工智能开发者购买保险。“重要的是我们要理解,监管不是毁灭性的,而是赋能的,如果它是明智的话,”莱西格在分论坛上说。透明度的需求“信任”这个概念一直在SXSW上许多关于人工智能的演讲者的脑海中浮现,专家们不仅担心超级智能听起来像科幻小说那样的潜力,还担心像聊天机器人这样的更基础产品中的偏见和错误所带来的实际日常影响。问题是,如何确保每个AI开发人员都在建立这种信任。AI安全是公司意识到需要解决的问题。只要看看OpenAI、谷歌、微软、Anthropic、Adobe等公司在其网站上为此话题专门开辟的页面就能明白。贾沃斯基提议借鉴处方药开发的监管模式:想想一个针对AI的FDA。大部分用于药物研发的资源都用于证明其安全性,一旦这些产品进入市场,就会建立起对它们的信任。当消费者认为一款产品安全时,他们就不太会对其使用感到不安。“即便从单纯希望AI行业发展繁荣的角度来看,安全也是你应该关心的事情,”贾沃斯基说。科科塔吉洛和莱西格均呼吁为人工智能公司员工提供举报保护。现行举报人法律保护揭露非法行为的员工,但涉及像人工智能这样新技术的许多潜在危险活动都是合法的。相关法律对此并无明确规定。莱西格说,欧盟的人工智能法规过于复杂,无法强制公司默认采取正确行为。“我认为我们需要认真讨论监管的最低可行产品是什么,”他说,“最低可行监管是在这些公司内部构建激励机制,促使它们以正确方式运作。”保险作为人工智能监管莱西格说,要求人工智能开发者购买保险将为责任创造市场激励。保险公司会依据公司产品及行为的风险程度来确定费率,这意味着缺少足够防护措施的产品成本更高。保险作为人工智能监管在其他领域,保险覆盖要求已存在,本质上是对冒险和不负责任行为进行定价。想想如果你有不良驾驶记录,车险费率会上涨;如果你有安全驾驶历史,车险费率会降低。“起初较为粗略,然后你会看到一些保险公司开始思考如何差异化地进行市场定价,”莱西格在分论坛后告诉CNET,“这就是我们需要营造的那种激励,竞争驱动力,以明确究竟需要保障哪些安全风险。”莱西格说,保险要求并非万能之策,但它确实能在公司推动愈发智能化的AI系统时,促使它们制定健全且可问责的安全规范。“在我看来,保险是应对基本失控风险的关键所在,”他说。
(以上内容均由Ai生成)