5 个陷阱会削弱对生成式 AI 的热情
快速阅读: 《福布斯》消息,随着生成式AI的广泛应用,艾丽莎·法里和加布里埃莱·罗萨尼在《哈佛商业评论生成式AI管理者指南》中探讨了相关陷阱。他们提出包括对AI过度信任、伪造风险、趋向一致性、速度过快及单打独斗等五大陷阱,并建议发展“生成式AI思维”,即拥抱AI的同时保持质疑和人类参与,通过对话互动、实验测试和学习来规避这些陷阱。
随着生成式人工智能在组织中的广泛应用,存在一些陷阱可能会抵消其带来的任何好处。为了避免这些陷阱,需要正确的思维方式。艾丽莎·法里和加布里埃莱·罗萨尼,这两位都来自凯捷发明管理实验室,在他们最新出版的《哈佛商业评论生成式AI管理者指南》中探讨了主要的人工智能陷阱。人们急于拥抱生成式AI是可以理解的。“当你开始在日常工作中使用生成式AI时,你会体验到一系列情绪,包括兴奋、好奇,甚至可能有一丝不安,”法里和罗萨尼写道。“围绕生成式AI培养正确的思维方式将帮助你在探索和实验过程中自信而负责任地进行。”
他们概述了与人机协作相关的常见陷阱:
1. **对AI过度信任**:这源于对生成式AI输出的过度信任,“仅仅是因为懒惰或表面印象认为AI的回答‘听起来足够好’”,法里和罗萨尼警告说。他们建议主动探究AI的推理,“通过要求澄清和更好的表述,请求反方论点,并识别弱点。”
2. **伪造的风险**:“未经验证就接受生成式AI的输出作为事实是有风险的,”合著者表示。“许多人甚至没有意识到AI伪造的风险。语言模型的自我表述进一步加剧了这一风险。”因此,重要的是要“根据可靠来源的事实验证陈述,并咨询专家,特别是在不熟悉的话题上。”
3. **趋向一致性**:尽可能具体并结合上下文,以避免AI倾向于提供平淡、通用且缺乏多样性和原创性的输出。这涉及提示AI“例如,关于公司的价值观、独特价值主张、品牌等提供上下文信息,”法里和罗萨尼建议。“在整个创意过程中,请AI将其视为指导方针。”
4. **速度陷阱**:他们指出,当与技术打交道时,人们自然倾向于过于急切地输入、点击或前进。也许与AI工作的人应该放慢速度,积极参与对话。他们应该表达自己的观点和反方论点。
5. **单打独斗陷阱**:有些人可能会选择完全依赖AI而不再与其他人类互动。这是不健康的。“这会减少团队内部的人际沟通和知识共享,导致更多孤立的工作和缺乏多样性视角,”法里和罗萨尼警告说。他们建议定期从这种“单独与AI互动”中抽离出来,与同事面对面交流。寻求反馈,整合不同的观点,并鼓励同伴学习。
为了避开这些陷阱,法里和罗萨尼敦促发展一种“生成式AI思维”——拥抱AI所能提供的一切,但同时保持人类的参与和质疑态度。这包括用对话方式与系统互动,尝试和测试不同的AI模型,并负责任地使用它。生成式AI思维在于持续学习。“动手测试揭示了能力、限制、有效使用技巧、风险以及潜在缓解措施,”合著者指出。“培养学习心态——问‘这是什么?’——可以帮助你充分利用其优势。”这代表了技能发展的关键环节,他们补充道。“实验将帮助你了解团队最需要发展的技能。从测试者遇到的具体挑战或障碍着手。例如,你的团队可能发现有效地提示AI执行某些任务具有挑战性,或者在为人类-机器对话起草合适的大纲时遇到困难。测试者可能会遇到常见的陷阱,如过度信任机器,后来才发现确实需要额外的验证。”
掌握提示技术,“无论是基础的——简单查询——还是高级的——结构化提示——是一项重要的技能,也是你应该开始提升技能的地方,”他们表示。“许多公司还设立了‘提示学院’来培训员工,并提供一个平台用于分享和收集经验,称为‘提示库’。”
(以上内容均由Ai生成)