AI项目为何面临2026年失败风险
快速阅读: 安东尼·伍德沃德指出,2025年人工智能革命已至,但分布不均,个人受益显著而大型项目遇困。研究预测2026年60%-90%的AI项目可能失败,主要因数据和治理问题。加强数据治理和合规性是关键。
2025年,借用一句名言:人工智能革命已经到来,只是分布不均。个人从大型语言模型或更新的代理系统中获得生产力提升,而大型项目却面临困境。观察现状,每有一个工程师独自“氛围编码”复杂应用程序的成功案例,就有许多企业试点停滞不前。
安东尼·伍德沃德,RecordPoint的联合创始人兼首席执行官指出,研究和行业预测一致警告,到2026年,60%至90%的人工智能项目有失败的风险,定义为在部署前放弃、无法提供可衡量的商业价值或直接取消。数据危机:为什么人工智能的未来取决于修复基础。工程师为何发出人工智能警报。从实验到影响:为什么人工智能代理从一开始就需治理。
人工智能项目的问题不在于模型本身,而是数据和治理问题。然而,这个问题是可解决的,通过解决它,组织不仅能使人工智能努力更加可行,还能降低组织风险。组织为何在人工智能方面遇到困难?很容易将原因归咎于模型选择、参数调优或供应商选择等。对于一个新技术,面对失败的试点,常见的反应是“你一定做错了”。实际上,最常见的问题是基础性的:由于缺乏治理导致的数据混乱。
高德纳咨询公司的指导非常明确:到2027年,60%的组织将因为治理不连贯而无法实现预期的人工智能应用价值。即使功能得以推出,如果没有连贯的治理框架和“人工智能就绪”的数据,也可能无法达到预期效果。底层数据治理问题也是成本超支和影子人工智能等问题的根本原因。没有使用护栏、权限管理和保留卫生措施,计算成本可能上升,风险也会扩大。
数据治理与人工智能治理。在探讨两者如何促进成功的人工智能推广之前,先定义这两种治理形式。数据治理涉及数据生命周期中的发现、分类、保护、保留和监控工作。它创建了一个框架,规定了谁可以访问数据、数据如何收集、存储和使用,并分配责任以确保一致性,防止问题发生,支持整个业务的更好决策。
人工智能治理是一个相对较新的领域,通过制定组织使用人工智能的规则,确保其操作在法律和道德边界内,并与组织的价值观和社会规范相一致。数据治理:从事后想到人工智能推动者。数据治理传统上主要考虑如何帮助组织避免负面后果。组织通常只在合规失败或数据泄露之后,或当数据如此不可靠以至于做出明显错误的决策时,才处理数据治理失败的问题。
有了强大的数据治理,可以确保审计跟踪得以保存,数据按法规保留,以避免审计失败和破坏性的监管处罚。还可以通过管理访问和在义务到期时移除数据来更好地保护数据,减少数据泄露的可能性和影响。随着人工智能的到来,数据治理有了另一个卖点:它可以促进创新。就像发动机需要润滑油一样,人工智能也需要数据。对于许多组织来说,治理已从一个事后想法转变为一个推动者。
优先考虑强大数据治理的组织可以为其人工智能平台提供真实、可靠且无偏见、错误的数据,同时尊重个人隐私。当治理缺口公开时,在去年的一个引人注目的案例中,加拿大航空因网站聊天机器人提供误导性的哀悼票价指导而被不列颠哥伦比亚省民事解决法庭裁定承担责任。根本问题是模型混淆了两个类似的(真实的)政策,并虚构了两者之间的联系。这一教训不是“人工智能危险”,而是政策必须被视为权威、版本化的内容,人工智能机器人应仅从经过批准的来源检索,并由人工验证敏感声明。
什么是好的治理?
对于希望明年在人工智能项目中取得成功的组织而言,成功之路始于建立强大的数据治理,确保数据适合人工智能使用,并专注于合规性。
确保数据适合人工智能使用:来源、上下文和可信度
良好的数据治理的起点是理解自己的数据,无论是结构化还是非结构化数据,以便能够信任这些数据,确保其来源可靠,并保证数据“适合人工智能”。适合人工智能的数据应受到良好管理、可观察且有权限控制。这说起来容易做起来难,因为不同的系统有不同的本体论或元数据模型,需要确保为大型语言模型或代理系统提供足够的上下文,以生成有价值的查询响应。这一过程需要持续进行,规模化操作。明确的所有权、可重复的数据管道和持续测试确保数据安全地流向正确的地方。准备就绪不是一种工具,而是一个过程。
关注合规性
了解自身拥有的数据后,可以采取行动使其合规、安全且无误。首先去除冗余、过时和琐碎的数据(ROT),这些数据会阻碍隐私或记录法规的遵守,增加数据泄露的危害,并可能导致人工智能模型产生次优或不符合规定的输出。对于剩余的数据,应根据相关法规制定保留计划并最小化(移除)敏感数据。审查数据访问和共享情况
没有比对公司访问管理进行全面审查更能体现数据与人工智能治理之间联系的方法了。您最近是否审计过员工的数据访问权限?在引入类似微软Copilot的人工智能模型之前,这是必要的步骤。Copilot可以加速现有过度授权用户或数据过度共享问题的影响。Concentric的一项研究发现,15%的关键业务资源存在过度共享的风险。像Copilot和ChatGPT Teams这样的平台继承了数据访问配置,因此在没有充分准备的情况下将其引入组织可能会导致意外后果,也称为“自摆乌龙”。
如果某位员工可以访问特定文件,那么他们的Copilot也可以访问,因此过度授权的用户可以向Copilot询问CEO的薪资,或请求敏感的员工绩效记录,这将违反隐私政策,引发内部混乱。若过度授权的用户遭到黑客攻击,威胁者可能会造成更大的破坏。
建立集中的人工智能治理中心
建立一个轻薄的控制层,位于数据源、人工智能服务和用户界面之上,以一次性声明政策并在所有地方强制执行——始终如一、可衡量且带有审计追踪。到2026年能大规模应用人工智能的公司,不是那些拥有最炫酷演示的公司,而是那些像对待财务或安全一样严格管理数据和人工智能的公司。
持续管理元数据,确保输入数据可信且合规。建立治理控制层,使模型行为可预测且负责任。做好这两点,不仅能够提供更多的人工智能产品,还能降低风险。我们已经介绍了最好的人工智能网站构建器。
本文由TechRadarPro的专家洞察频道制作,该频道汇集了当今技术行业最优秀和最聪明的头脑。这里表达的观点属于作者,不一定代表TechRadarPro或Future plc的立场。如果您有兴趣贡献内容,请点击此处了解更多信息:
https://www.techradar.com/news/submit-your-story-to-techradar-pro
主题
人工智能
安东尼·伍德沃德
社交媒体链接导航
安东尼·伍德沃德是RecordPoint的联合创始人兼首席执行官。
(以上内容均由Ai生成)