AI不会终结工作,而是重塑未来职场

发布时间:2025年11月18日    来源:szf
AI不会终结工作,而是重塑未来职场

快速阅读: 人们对新工具如AI的担忧历史悠久,尽管76%的企业探索AI创新,但消费者信任度低。AI已融入日常,现正深刻影响知识工作,引发关于专长和知识产权的讨论,投资激增显示其热度不减。

每次有新工具问世,人们都会担心它会毁掉我们。印刷机被认为会腐蚀信仰,计算器将摧毁数学技能,电子邮件则被认为会破坏生产力。现在轮到了人工智能(AI)。这种模式很熟悉,一开始总是伴随着炒作、恐惧和混乱。无论是领导者还是员工都在质疑,AI是否真的必要,或者它带来的风险是否大于收益。尽管76%的企业正在探索生成式AI(GenAI)以推动创新,但只有约40%的消费者信任生成式AI的输出,他们担心其准确性和透明度。

事实上,AI并不是什么全新的外星力量,它已经融入我们的日常生活数十年。亚马逊的推荐系统、Netflix的播放列表、像Siri这样的语音助手,甚至你在客厅里放任自由的Roomba,这些都是AI的应用。不同之处在于,生成式AI更加贴近我们,影响着我们的写作、编码和创作。这种接近性使得其影响显得更为重大。

然而,这次AI的发展有所不同,不仅仅是后台自动化任务那么简单。AI正直接冲击知识工作者,这让人感到不安。“专长”本身是否也成为了讨论的话题?

AI的采用并没有降温。仅在2024年,美国私人AI投资就增长至1091亿美元,全球范围内吸引了339亿美元的私人投资,比2023年增长了18.7%。底层AI技术经过数十年的发展,而大型语言模型(LLMs)能够生成文本、图像和代码的能力,使这项技术以前所未有的方式进入了文化焦点。

这一加速发展加剧了变革的步伐,迫使组织在公众高度关注下做出采用决策。董事会要求加快速度,而监管机构和安全团队仍在努力制定必要的基本规则。这次真正不同的是影响的即时性。生成式AI直接触及知识工作,挑战了关于专长、作者身份和对知识产权控制的既定规范。这导致了创新倡导者与担心人类判断力被侵蚀者之间的摩擦。结果是两极化的辩论、不一致的采用策略、新的安全威胁向量以及监管者像蜘蛛侠模因那样指手画脚。

特别是在法律、金融、医疗保健和学术界等领域,利害关系达到了最高点。信任和声誉是这些领域的货币。同时,完全抵制采用AI可能会导致落后于那些已经在利用AI并取得成功的竞争对手。如果AI的采用没有适当的安全措施,机构可能会失去客户、监管机构和自身员工的信任,后者可能更愿意转向那些正确实施AI的竞争对手。

另一方面,完全拒绝AI并袖手旁观同样是危险的。竞争对手们已经跳入了AI的深水区。对恐惧与错失恐惧症(FOMO)的争论错过了重点。AI对话需要超越基于恐惧的二元对立。就像课堂上的计算器或工作场所的电子邮件一样,AI本身并无好坏之分,它只是一种能力或协同智能。

真正的区别在于领导者如何指导采用,并在技术保障与文化适应之间找到平衡。对于首席信息安全官(CISO)、首席信息官(CIO)和其他决策者来说,目标应该是拒绝全面接受或彻底禁止的虚假选择。相反,组织应该追求有目的的整合,运行概念验证(PoC),并在透明治理的基础上进行。举办午餐学习会以促进用户教育,并建立组织价值观和文化与AI的明确对齐。人的因素仍然至关重要,尤其是在现在。

对于AI而言,明确“专长”意味着什么应该是首要任务。了解什么是可能的,以及已经在发生的事情。

重新审视工作流程,找出可以利用人工智能来减轻员工负担的地方,同时明确需要人类判断的关键环节。不要回避明确指出哪些领域需要人类判断,而哪些领域人工智能可以安全地接管重复性工作。透明度至关重要,因为模糊不清会导致广泛的解读。

在网络安全领域,这种清晰度每天都在体现。我看到过人工智能帮助过滤数千条警报,否则这些警报会淹没安全团队。模型承担了基础工作,标记出可疑模式,随后由人类决定这是干扰还是真正的攻击。当界限明确时,团队能够保持敏锐;反之,团队可能会过度信任模型或被警报淹没。利害关系重大,因为一次遗漏的决策可能就是阻止入侵与事后读到新闻之间的区别。

通过详细解释如何使用人工智能、它可以处理的数据、输出如何验证以及如何分配功劳,你可以打下良好的基础。当让每个人都参与到人工智能事务中时,确保员工了解正确与错误的做法就容易得多,因为人工智能的知识不应该只存在于IT部门。如果只有IT部门理解风险,整个组织将面临困境。

赋予组织内的人们使用人工智能的工具和知识,从识别偏见到知道何时信任或质疑其答案。从小处着手,快速学习,首先在低风险区域测试人工智能,观察效果并不断调整。关注其性能表现,通过机器学习运营(MLOps)进行监控。衡量关键事项,让业务知识工作者构建指标和KPI。让质量保证再次变得酷起来。

当正确运用时,人工智能能提高效率。印刷机没有终结学习,计算器没有消灭数学,电子邮件也没有降低生产力。每一项技术都提高了基础水平,为人提供了更多空间去专注于更重要的事情。人工智能也应如此对待。它不是为了削弱信任或系统,而是为了在明确的治理和责任框架下增强人的能力。进步是持久的,当人们看到它在不损害诚信的情况下改善了生活。

信任不是靠新闻发布赢得的,而是靠证据。向员工展示人工智能有其边界,向客户证明安全和隐私始终放在首位。这样,信誉才能建立并持续。在网络安全中,透明度和责任感捍卫了信任,也是塑造未来的方式。

我们已经展示了最佳的加密软件。这篇文章是TechRadarPro的专家见解频道的一部分,该频道汇聚了当今科技行业的顶尖头脑。这里表达的观点属于作者,并不一定代表TechRadarPro或Future plc的立场。如果你有兴趣贡献内容,请访问以下链接了解更多信息:

https://www.techradar.com/news/submit-your-story-to-techradar-pro

(以上内容均由Ai生成)

关键词: Ai职场重塑

你可能还想读

TCS推AI机器狗进军航空业

TCS推AI机器狗进军航空业

快速阅读: 据印度塔塔咨询服务公司(TCS)发布消息称,全球航空航天业加速绿色智能化转型,40%企业预计五年内实现“熄灯工厂”,数字孪生与eVTOL成重点方向,物理AI机器人有望获批用于高危场景。 日前,全球航空航天产业加速向绿色化、智能化 […]

发布时间:2025年12月8日
Meta签约多家媒体,为AI提供实时新闻

Meta签约多家媒体,为AI提供实时新闻

快速阅读: 据媒体报道,Meta与CNN、福克斯新闻等多家国际媒体签署AI数据合作协议,重启付费合作以提升Meta AI在新闻时效性与准确性方面的表现,并引导用户访问合作方网站。 日前,美国科技企业Meta宣布与多家国际新闻机构签署商业人工 […]

发布时间:2025年12月8日
Semaverse推AI平台赋能并购决策

Semaverse推AI平台赋能并购决策

快速阅读: 据最新消息,人工智能初创企业Semaverse近日推出“并购智能基础设施”平台,依托多智能体架构与智能记忆系统,为私募股权基金等提供覆盖交易全周期的五大智能化功能,助力数据驱动决策。 近日,人工智能初创企业Semaverse正式 […]

发布时间:2025年12月8日
Gartner建议全面禁用AI浏览器

Gartner建议全面禁用AI浏览器

快速阅读: 据Gartner发布消息称,AI浏览器存在严重数据安全与隐私风险,其侧边栏功能可能自动上传敏感信息至云端,企业部署前须严格评估后端安全机制并限制高危操作场景。 日前,国际知名研究机构Gartner发布风险警示,指出当前流行的AI […]

发布时间:2025年12月8日
利雅得航空携手IBM打造全球首家AI原生航司

利雅得航空携手IBM打造全球首家AI原生航司

快速阅读: 据最新消息,IBM依托混合云与红帽OpenShift技术,为175国客户提供AI及量子计算等创新方案,加速金融、医疗等关键领域数字化转型,深化本地化服务以提升全球产业链智能化水平。 国际商业机器公司(IBM)日前宣布,其作为全球 […]

发布时间:2025年12月8日
英语国家民众对AI更悲观

英语国家民众对AI更悲观

快速阅读: 据YouGov发布消息称,其2025年8月对九国调查显示,西欧民众对AI态度较积极,英语国家更悲观,就业影响最受担忧,而医疗、办公等领域获普遍认可。 日前,国际民调机构YouGov发布一项涵盖九国的调查报告显示,公众对人工智能( […]

发布时间:2025年12月8日
AI无法替代税务专家的判断与质疑

AI无法替代税务专家的判断与质疑

快速阅读: 12月8日消息,专家警示AI在税务申报中存在合规与伦理风险,强调其无法替代专业判断,呼吁合理界定应用边界,防范不法机构借智能算法诱导激进申报,确保人机协同、合法合规。 近日,有关人工智能在税务申报领域应用的讨论引发关注。专家指出 […]

发布时间:2025年12月8日
德州法学院以伦理先行培养AI时代律师

德州法学院以伦理先行培养AI时代律师

快速阅读: 据彭博法律报道,美国得州多所法学院以伦理为先推动AI审慎融入法律教育,要求明确使用规范并强调人类判断不可替代,呼应州律师协会第705号伦理准则。 近日,美国得克萨斯州在人工智能时代积极探索法律教育的务实路径,强调以伦理为先、审慎 […]

发布时间:2025年12月8日