NASA工程师谈为何企业需建立与航天技术同等可信的AI系统

发布时间:2025年10月25日    来源:szf
NASA工程师谈为何企业需建立与航天技术同等可信的AI系统

快速阅读: 前NASA工程师强调,信任对于AI技术的发展至关重要。预计2027年50%企业将部署AI代理,但需确保安全可靠。学习航天工程经验,建立透明、持续、自主的信任机制,推动AI健康发展。

在我担任NASA航天飞机项目工程师时,信任至关重要。每个螺栓、每行代码、每个系统都必须经过仔细验证和测试,否则航天飞机将无法离开发射台。宇航员完成任务后,会到办公室感谢成千上万的工程师将他们安全送回家——这体现了我们系统中信任和安全的重要性。

尽管有“快速行动,打破常规”的口号,技术行业也不应例外。新技术在加速增长之前,需要建立信任。

据预测,到2027年,约50%的企业将部署AI代理,而麦肯锡的一份报告预计,到2030年,高达30%的工作可能由AI代理完成。我交谈过的许多网络安全领导者都在寻求尽快引入AI以推动业务发展,但他们也认识到,这些集成必须安全可靠地进行,并设置适当的防护措施。

要实现AI的潜力,商业领袖必须信任AI。这不会自然而然发生。安全领导者应该从航空航天工程中学到教训,在流程初期就建立信任,否则可能会错失AI带来的业务增长机会。

信任与增长之间的关系并非理论。我亲身经历过这一点。

基于信任创办企业

NASA的航天飞机项目结束后,我创立了我的第一家公司:一个供专业人士和学生展示和分享其技能和能力的平台。这是一个简单的想法,但要求客户对我们充满信任。我们很快发现,大学不会与我们合作,直到我们证明能够安全处理敏感的学生数据。这意味着通过多种途径提供保证,包括获得干净的SOC 2认证,回答冗长的安全问卷,以及通过繁琐的手动过程完成各种合规认证。

这段经历塑造了Drata的成立,我和我的联合创始人致力于构建公司间的信任层。通过帮助GRC领导者及其公司向客户、合作伙伴和审计师展示其安全态势,我们减少了摩擦,加速了增长。我们从每年100万美元到1亿美元的经常性收入仅用了几年时间,这证明了企业看到了价值,开始逐渐将GRC团队视为业务推动者而非成本中心。这转化为实际成果——我们看到有180亿美元的安全影响收入,这些收入来自使用我们的SafeBase信任中心的安全团队。

现在,随着AI的发展,风险更高。

当前的合规框架和法规——如SOC 2、ISO 27001和GDPR——旨在保护数据隐私和安全,而不是为生成文本、做出决策或自主行动的AI系统设计。

得益于加州新颁布的AI安全标准等立法,监管机构正在逐步跟上步伐。然而,仅仅等待新的规则和法规是不够的——尤其是在企业依赖新AI技术保持领先的情况下。

你不会发射未经测试的火箭

在很多方面,这一时刻让我想起了在NASA的工作。作为一名航空航天工程师,我从未“在生产环境中测试”。每次航天任务都是精心策划的操作。

在不了解和承认风险的情况下部署AI,就像发射未经测试的火箭:损害可能是即时且灾难性的。正如一次失败的太空任务会降低人们对NASA的信任,AI使用中的失误,若未充分了解风险或未设置防护措施,也会降低消费者对组织的信任。

我们现在需要一个新的信任操作系统。为了实现信任的运营化,领导者应创建一个:

透明的程序。

在航空航天工程中,详尽的文档不是官僚主义,而是问责的力量。同样,AI和信任也需要可追溯性——从政策到控制再到证据和认证。

持续的过程。

就像NASA全天候监控其任务一样,企业必须将信任视为一个持续和不断的过程,而不仅仅是某个时间点的复选框。例如,控制措施需要持续监控,以便审计准备成为一种常态,而不仅仅是一场临时冲刺。

自主的系统。

如今的火箭发动机可以通过嵌入式计算机、传感器和控制回路自主管理操作,无需飞行员或地面人员在飞行中途直接调整阀门。随着AI在日常业务中的普及,我们的信任计划也必须如此。如果人类、代理和自动化工作流要进行交易,它们必须能够自主、确定地验证信任,且没有模糊性。

回想我的航天岁月,最让我印象深刻的是不仅有太空任务的复杂性,还有它们之间的相互依赖。数以万计的部件,由不同的团队制造,必须完美地协同工作。每个团队都相信其他团队能够高效完成任务,决策过程透明,确保整个组织的信息畅通。换句话说,信任是将整个航天飞机项目凝聚在一起的关键因素。这一点同样适用于当今的人工智能,尤其是在我们进入代理人工智能这一新兴时代时。我们正在转向一种新的商业模式,数百乃至数千个代理、人类和系统之间不断互动,产生数以万计的接触点。这些工具强大,机会广阔,但前提是我们在每一次互动中都能赢得并维持信任。建立透明、持续、自主的信任文化的公司,将引领下一轮创新浪潮。

人工智能的未来已经初现端倪。问题很简单:你是否会基于信任来构建它?

《财富》评论文章所表达的观点仅代表作者个人,不一定反映《财富》杂志的意见和信念。

《财富》全球论坛将于2025年10月26日至27日在利雅得举行,届时首席执行官和全球领导者将聚集一堂,参加这场塑造商业未来的重要活动。

申请邀请函。

(以上内容均由Ai生成)

你可能还想读

美海军推4.48亿美元AI系统提升舰艇建造维修效率

美海军推4.48亿美元AI系统提升舰艇建造维修效率

快速阅读: 12月10日消息,美国海军联合帕兰提尔启动4.48亿美元“舰船操作系统”项目,运用AI整合舰艇建造与维修数据,试点已将潜艇排期从160小时缩至10分钟,显著提升效率与精度。 美国海军近日宣布启动“舰船操作系统”(Ship OS) […]

发布时间:2025年12月10日
GigaTIME模型解析肿瘤微环境助力免疫治疗

GigaTIME模型解析肿瘤微环境助力免疫治疗

快速阅读: 最新消息显示,普罗维登斯基因组学中心、微软研究院与华盛顿大学联合推出GigaTIME人工智能病理模型,可精准分析肿瘤微环境及免疫细胞相互作用,有望提升癌症免疫治疗响应效果。 近日,一项由普罗维登斯基因组学中心、微软研究院与华盛顿 […]

发布时间:2025年12月10日
李在明亲自主持AI芯片发展会议

李在明亲自主持AI芯片发展会议

快速阅读: 12月10日消息,韩国总统李在明将于11日主持召开半导体战略会议,召集三星、SK海力士等企业及政府官员,聚焦强化制造能力、提升芯片设计影响力、加速AI大模型芯片研发,以应对全球科技竞争与供应链挑战。 韩国总统李在明将于12月11 […]

发布时间:2025年12月10日
越南学子用AI破解医疗数据难题

越南学子用AI破解医疗数据难题

快速阅读: 据悉,越南胡志明市国家大学毕业生黎阮芳垂聚焦AI医疗透明度研究,利用大语言模型合成高质量数据破解罕见病诊疗难题,凭三项国际论文成果获2025年“科技领域杰出青年女性奖”。 日前,越南胡志明市国家大学附属天才高中毕业生黎阮芳垂在人 […]

发布时间:2025年12月10日
AI政治聊天机器人影响选民倾向

AI政治聊天机器人影响选民倾向

快速阅读: 据最新消息,美国哈特兰研究所与拉斯穆森报告公司联合调查显示,18至39岁年轻保守派比自由派更支持AI主导政府决策,包括制定政策、解释宪法及指挥军事,反映政治倾向与代际差异对技术治理态度的影响。 近日,美国哈特兰研究所与拉斯穆森报 […]

发布时间:2025年12月10日
Gartner警告:AI浏览器存安全风险

Gartner警告:AI浏览器存安全风险

快速阅读: 据最新消息,AI浏览器在提升自动化操作的同时带来新型安全风险,包括提示注入、推理错误及钓鱼攻击,传统防护难以应对,亟需构建覆盖全交互链路的多层次安全监管体系。 近日,研究人员指出,人工智能浏览器在提升网络操作自动化水平的同时,也 […]

发布时间:2025年12月10日
SPB之子拒用AI复刻父亲歌声

SPB之子拒用AI复刻父亲歌声

快速阅读: 记者从相关部门获悉,已故印度传奇歌手SPB之子查兰反对用AI复刻父亲声音,称涉伦理争议且损害在世歌手权益,虽支持拍摄传记片,但对叙事形式尚无定论,并愿亲自出演以致敬父亲。 今日,已故印度传奇歌手S.P.巴拉苏布拉马尼安(S.P. […]

发布时间:2025年12月10日
欧盟调查谷歌AI训练内容使用

欧盟调查谷歌AI训练内容使用

快速阅读: 欧盟委员会今日宣布对谷歌展开正式调查,审查其AI搜索摘要功能是否违规使用新闻出版商和YouTube创作者内容,涉嫌构成强制授权并获取不公平竞争优势,旨在保障内容创作者权益与AI市场公平竞争。 欧盟委员会今日宣布对谷歌展开正式调查 […]

发布时间:2025年12月10日