计算机科学教授解释使用 Gen AI 时保持智能的 5 种方法
快速阅读: 据《CNET 公司》最新报道,专家提醒需谨慎使用生成式人工智能工具,明确需求、核实信息、保护隐私,避免盲目信任,将其作为辅助而非替代人类的手段。
新闻界流传一句老话:如果母亲告诉你她爱你,也需要核实清楚。重点是,即使是值得信赖的来源,我们仍需保持怀疑态度。但如果不是你的母亲,而是像OpenAI开发的ChatGPT这样的生成式人工智能模型告诉你某些事情呢?你会信任计算机吗?
本周,在德克萨斯州奥斯汀举行的西南偏南大会聚焦于人工智能。专家们讨论了未来和大局,包括信任、不断变化的工作场所等话题。卡内基梅隆大学计算机科学学院的助理教授吴诗睿(Sherry Wu)和马滕·萨普(Maarten Sap)则更关注当下,提供了如何最好地使用以及避免误用常见生成式人工智能工具(如基于大型语言模型训练的AI聊天机器人)的建议。
“它们实际上远未完美,也不适合所有人想用它们完成的所有用途。”萨普说道。
以下是五条关于如何比AI更聪明的建议:
### 1. 明确你想要什么
任何在Twitter或Bluesky等社交媒体上发布过冷笑话的人都会告诉你,在文本中传达讽刺是多么困难。那些网站上的发布者(至少是人类发布者)知道何时你并非字面意思的社会线索。然而,大型语言模型(LLM)却做不到这一点。萨普表示,如今的LLM超过半数情况下会将非字面陈述理解为字面意思,并且在社会推理方面存在困难。吴诗睿提出的解决方案是更加具体和结构化地提出你的提示语(Prompts)。确保模型知道你要它生成的内容是什么。专注于你到底想要什么,不要假设LLM会推断出你实际的问题。
### 2. 确认机器人是否可信
生成式人工智能工具最大的问题之一就是它们会产生幻觉,即编造内容。萨普表示,幻觉出现的概率可能达到四分之一,特别是在法律和医学等专业领域,发生率更高。这个问题不仅在于得到错误的答案,还在于聊天机器人可能会在答案上显得非常自信,但实际上可能是完全错误的。“这会让人类轻易依赖这些看似确定的信息,即使模型给出的答案是错误的。”他说。
解决这个问题很简单:检查LLM的答案。吴诗睿说,你可以通过多次询问相同的问题或类似的问题来检查其一致性。你可能会看到不同的输出。“有时你会发现模型其实并不知道自己在说什么。”她说。最重要的是要通过外部来源进行验证。这也意味着你应该小心不要问那些你不知道答案的问题。吴诗睿表示,当生成式AI的答案是你熟悉的话题时最有用,这样你可以判断什么是真实的,什么是虚假的。“有意识地决定何时依赖模型,何时不依赖。”她说,“当模型告诉你它非常自信时,不要相信它。”
### 3. AI无法保守秘密
对LLM的隐私担忧很多。这不仅仅是将不想在网上看到的信息交给一台可能会将其告诉任何人的机器的问题。萨普表示,与OpenAI的ChatGPT进行的演示显示,当被要求组织一个惊喜派对时,它告诉了本应感到惊讶的人关于派对的事情。“LLM在推理谁应该知道什么以及什么时候知道方面并不擅长,也不知道哪些信息应该是私密的。”他说。吴诗睿表示,不要与LLM分享敏感或个人信息。“无论何时你向模型分享由你产生的任何内容,都要再次检查是否有你不希望泄露给LLM的内容。”她说。记住,你在与一台机器交谈。
### 4. 将AI视为工具而非人类
聊天机器人之所以流行,部分原因是它们模仿人类语言的能力相当高。但这些都是模仿;这并非真正意义上的人类,萨普说。模型会说“我想知道”、“我想象”之类的话,因为它们是在包含这些词的语言中训练的,而不是因为它们真的有想象力。“我们使用语言的方式,这些词都暗示着认知。”萨普说。“这意味着语言模型在想象事物,它有一个内部世界。”将AI模型视为人类是有危险的,这可能引发不当的信任。LLM的运作方式不同于人类,将它们当作人类对待会加剧社会刻板印象,萨普说。“人类更容易过度赋予AI系统人性或意识。”他说。
### 5. 不要盲目依赖AI
尽管有人声称LLM能够进行高级研究和推理,但萨普表示,它们目前还不能很好地工作。基准测试表明模型可以达到拥有博士学位的人类水平,但这只是基准测试,这些分析背后的实际测试并不意味着模型可以在你需要使用它的任务上达到那个水平。“围绕着AI能力的稳健性有一种错觉,这致使人们在商业决策上过于草率。”他说。吴诗睿表示,在决定是否使用生成式AI模型来完成某项任务时,要权衡使用它的利弊及潜在风险,以及不使用它的利弊及潜在风险。
总而言之,虽然生成式人工智能带来了许多便利,但我们必须以审慎的态度面对这项技术,确保它成为我们的助手,而非误导我们的源头。
(以上内容均由Ai生成)