调整 AI 使用以获得更好的结果和更安全的体验的 5 种快速方法
快速阅读: 据《ZDNet》最新报道,随着AI技术普及,安全使用生成式AI至关重要。专家提出五点建议:明确指令、核查回复、保护隐私、避免人格化、谨慎选用模型。例如,清晰指令可减少误读,仔细核查能避免错误信息。
Getty Images/希拉街工作室
随着人工智能(AI)技术日益普及,我们已经难以避开它的身影。例如谷歌搜索中展示的人工智能响应。在这个技术广泛传播的时代,AI安全的重要性前所未有地突出。那么,作为AI用户,你该如何安全地使用生成式人工智能(Gen AI)呢?
此外:
为何应忽视99%的AI工具——以及我每日使用的四个工具
卡内基梅隆大学计算机科学学院助理教授马尔滕·萨普和舒瑞·童霜武登上了SXSW舞台,向公众介绍大型语言模型(LLMs)技术的不足之处,这些模型是流行生成式AI工具背后的技术类型,例如ChatGPT,并解释了人们如何更高效地利用这些技术。
“它们非常出色,且无处不在,但它们远未达到完美,”萨普说道。
对于日常与AI的互动,你可以进行一些简单的调整。这些调整不仅能保护你免受AI缺陷的影响,还能帮助你从AI聊天机器人中获取更多价值,包括更准确的回复。继续阅读以了解专家提出的优化AI使用的五种方法。
1. 给AI更好的指令
由于AI具备对话能力,人们通常会采用不够明确、简短的提示,仿佛是在与朋友交谈。然而,当指令不足时,AI系统可能会错误地推断你的文本提示的字面意思,因为它们缺乏人类解读言外之意的能力。
为了解释这个问题,在他们的演讲中,萨普和童霜武告诉一个聊天机器人他们正在阅读一百万本书,而聊天机器人却将其误解为字面事实,而非夸张的表达。萨普分享了他的研究发现,现代LLMs超过半数时间无法以字面方式理解非字面引用。
解决这个问题的最佳办法是通过更明确的要求来澄清你的提示,减少误读或错误的空间。童霜武建议将聊天机器人视为助手,并清楚地指示它们你想要的具体操作。尽管这种方式在编写提示时可能需要更多努力,但结果应该更符合你的预期。
此外:
AI能否在不剽窃艺术家的情况下激发创造力?
2. 仔细检查你的回复
如果你曾使用过AI聊天机器人,你会发现它们会生成幻象,即输出错误的信息。幻象可能以多种形式出现,比如输出事实错误的回复、错误总结给定信息,或者同意用户分享的虚假事实。
萨普表示,对于一般的日常使用场景,幻象的发生率在1%到25%之间。而在法律和医学等专业领域,幻象率甚至更高,超过了50%。这些幻象难以被察觉,因为它们听起来合理,即使它们毫无意义。
此外:
AI代理不仅仅是助手:它们如何改变今天的工作未来
模型常常通过诸如“我很自信”之类的标记来强化其回复,即便提供的信息是错误的。在演示中引用的一项研究指出,AI模型有47%的时间对其回复确信但错误。
因此,保护自己免受幻象影响的最佳方法是仔细检查你的回复。一些策略包括用外部资源(如谷歌或你信任的新闻媒体)交叉验证你的输出,或者用不同的措辞再次询问模型,看看AI是否输出相同的回复。
虽然使用ChatGPT协助你不熟悉的主题可能很有吸引力,但如果你的提示保持在你专业知识范围内,更容易识别错误。
此外:
AI能否在不剽窃艺术家的情况下激发创造力?
3. 保护你关心的数据隐私
生成式AI工具基于大量数据进行训练。它们还需要数据来继续学习,以变得更智能、更高效。因此,模型通常会使用其输出进行进一步训练。
问题是,模型经常在其回复中重复其训练数据,这意味着你的私人信息可能会出现在其他人的回复中,从而暴露你的私人数据。使用网络应用程序时也存在风险,因为你的私人信息会离开你的设备并在云端处理,这带来了安全问题。
保持良好AI卫生的最佳方法是避免与LLMs共享敏感或个人数据。在某些情况下,你所需的帮助可能涉及使用个人数据。你还可以对这些数据进行数据脱敏处理,确保你在获得帮助的同时没有风险。许多AI工具,包括ChatGPT,都有让用户选择退出数据收集的选项。即使你不打算使用敏感数据,选择退出始终是一个好选择。
4. 注意你谈论LLMs的方式
AI系统的功能及其能够使用自然语言与其交互的能力,让一些人高估了这些机器人的能力。人格化,即将人类特征赋予机器,是一个危险的滑坡。如果人们认为这些AI系统接近人类,他们可能会给予它们更多的责任和数据信任。
此外:
为何OpenAI的新AI代理工具可能会改变你的编码方式
根据专家的说法,一种缓解这一问题的方法是在提到这些AI模型时停止赋予它们人类特征。与其说“模型认为你想得到平衡的回答”,萨普建议更好的替代说法是:“该模型的设计是基于其训练数据生成平衡回答。”
5. 认真考虑何时使用LLMs
尽管这些模型似乎可以帮助几乎每一个任务,但在许多情况下,它们可能无法提供最佳帮助。虽然基准测试可用,但它们只涵盖用户与LLMs交互的一小部分。
此外:
即使是高端AI工具也会扭曲新闻并捏造链接——这些都是最糟糕的情况
LLMs也不一定适合所有人。除了上述提到的幻象外,还有记录显示LLMs会做出种族主义决定或支持西方中心偏见。这些偏见表明模型可能不适合在许多应用场景中提供帮助。
因此,解决方案是在使用LLMs时要深思熟虑且谨慎。这种做法包括评估使用LLM的影响,以确定它是否是你问题的最佳解决方案。查看哪些模型在特定任务上表现优异,并为你的需求选择最佳模型也很有帮助。
想了解更多关于AI的故事?
订阅《创新》,我们的每周通讯。
(以上内容均由Ai生成)