调整 AI 使用以获得更好的结果和更安全的体验的 5 种快速方法

发布时间:2025年3月14日    来源:szf
调整 AI 使用以获得更好的结果和更安全的体验的 5 种快速方法

快速阅读: 据《ZDNet》最新报道,随着AI技术普及,安全使用生成式AI至关重要。专家提出五点建议:明确指令、核查回复、保护隐私、避免人格化、谨慎选用模型。例如,清晰指令可减少误读,仔细核查能避免错误信息。

Getty Images/希拉街工作室

随着人工智能(AI)技术日益普及,我们已经难以避开它的身影。例如谷歌搜索中展示的人工智能响应。在这个技术广泛传播的时代,AI安全的重要性前所未有地突出。那么,作为AI用户,你该如何安全地使用生成式人工智能(Gen AI)呢?

此外:

为何应忽视99%的AI工具——以及我每日使用的四个工具

卡内基梅隆大学计算机科学学院助理教授马尔滕·萨普和舒瑞·童霜武登上了SXSW舞台,向公众介绍大型语言模型(LLMs)技术的不足之处,这些模型是流行生成式AI工具背后的技术类型,例如ChatGPT,并解释了人们如何更高效地利用这些技术。

“它们非常出色,且无处不在,但它们远未达到完美,”萨普说道。

对于日常与AI的互动,你可以进行一些简单的调整。这些调整不仅能保护你免受AI缺陷的影响,还能帮助你从AI聊天机器人中获取更多价值,包括更准确的回复。继续阅读以了解专家提出的优化AI使用的五种方法。

1. 给AI更好的指令

由于AI具备对话能力,人们通常会采用不够明确、简短的提示,仿佛是在与朋友交谈。然而,当指令不足时,AI系统可能会错误地推断你的文本提示的字面意思,因为它们缺乏人类解读言外之意的能力。

为了解释这个问题,在他们的演讲中,萨普和童霜武告诉一个聊天机器人他们正在阅读一百万本书,而聊天机器人却将其误解为字面事实,而非夸张的表达。萨普分享了他的研究发现,现代LLMs超过半数时间无法以字面方式理解非字面引用。

解决这个问题的最佳办法是通过更明确的要求来澄清你的提示,减少误读或错误的空间。童霜武建议将聊天机器人视为助手,并清楚地指示它们你想要的具体操作。尽管这种方式在编写提示时可能需要更多努力,但结果应该更符合你的预期。

此外:

AI能否在不剽窃艺术家的情况下激发创造力?

2. 仔细检查你的回复

如果你曾使用过AI聊天机器人,你会发现它们会生成幻象,即输出错误的信息。幻象可能以多种形式出现,比如输出事实错误的回复、错误总结给定信息,或者同意用户分享的虚假事实。

萨普表示,对于一般的日常使用场景,幻象的发生率在1%到25%之间。而在法律和医学等专业领域,幻象率甚至更高,超过了50%。这些幻象难以被察觉,因为它们听起来合理,即使它们毫无意义。

此外:

AI代理不仅仅是助手:它们如何改变今天的工作未来

模型常常通过诸如“我很自信”之类的标记来强化其回复,即便提供的信息是错误的。在演示中引用的一项研究指出,AI模型有47%的时间对其回复确信但错误。

因此,保护自己免受幻象影响的最佳方法是仔细检查你的回复。一些策略包括用外部资源(如谷歌或你信任的新闻媒体)交叉验证你的输出,或者用不同的措辞再次询问模型,看看AI是否输出相同的回复。

虽然使用ChatGPT协助你不熟悉的主题可能很有吸引力,但如果你的提示保持在你专业知识范围内,更容易识别错误。

此外:

AI能否在不剽窃艺术家的情况下激发创造力?

3. 保护你关心的数据隐私

生成式AI工具基于大量数据进行训练。它们还需要数据来继续学习,以变得更智能、更高效。因此,模型通常会使用其输出进行进一步训练。

问题是,模型经常在其回复中重复其训练数据,这意味着你的私人信息可能会出现在其他人的回复中,从而暴露你的私人数据。使用网络应用程序时也存在风险,因为你的私人信息会离开你的设备并在云端处理,这带来了安全问题。

保持良好AI卫生的最佳方法是避免与LLMs共享敏感或个人数据。在某些情况下,你所需的帮助可能涉及使用个人数据。你还可以对这些数据进行数据脱敏处理,确保你在获得帮助的同时没有风险。许多AI工具,包括ChatGPT,都有让用户选择退出数据收集的选项。即使你不打算使用敏感数据,选择退出始终是一个好选择。

4. 注意你谈论LLMs的方式

AI系统的功能及其能够使用自然语言与其交互的能力,让一些人高估了这些机器人的能力。人格化,即将人类特征赋予机器,是一个危险的滑坡。如果人们认为这些AI系统接近人类,他们可能会给予它们更多的责任和数据信任。

此外:

为何OpenAI的新AI代理工具可能会改变你的编码方式

根据专家的说法,一种缓解这一问题的方法是在提到这些AI模型时停止赋予它们人类特征。与其说“模型认为你想得到平衡的回答”,萨普建议更好的替代说法是:“该模型的设计是基于其训练数据生成平衡回答。”

5. 认真考虑何时使用LLMs

尽管这些模型似乎可以帮助几乎每一个任务,但在许多情况下,它们可能无法提供最佳帮助。虽然基准测试可用,但它们只涵盖用户与LLMs交互的一小部分。

此外:

即使是高端AI工具也会扭曲新闻并捏造链接——这些都是最糟糕的情况

LLMs也不一定适合所有人。除了上述提到的幻象外,还有记录显示LLMs会做出种族主义决定或支持西方中心偏见。这些偏见表明模型可能不适合在许多应用场景中提供帮助。

因此,解决方案是在使用LLMs时要深思熟虑且谨慎。这种做法包括评估使用LLM的影响,以确定它是否是你问题的最佳解决方案。查看哪些模型在特定任务上表现优异,并为你的需求选择最佳模型也很有帮助。

想了解更多关于AI的故事?

订阅《创新》,我们的每周通讯。

(以上内容均由Ai生成)

你可能还想读

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

美国能源部 17 个国家实验室全景及创世纪计划战略布局分析

快速阅读: 美国能源部17个国家实验室构成顶尖科研体系,在基础科学、能源安全、气候变化等领域发挥关键作用。拥有全球领先的超算资源及顶尖人才,年经费约220亿美元。随着“创世纪计划”启动,实验室将形成协同网络,推动美国在清洁能源、量子计算等前 […]

发布时间:2025年12月8日
谷歌Gemini 3 Pro发布

谷歌Gemini 3 Pro发布

快速阅读: 谷歌发布新一代推理模型Gemini 3 Pro,显著提升数学、编程和视觉理解能力。一经发布,Gemini 3 Pro几乎横扫各大评测榜单,在LMArena大模型竞技场中以1501的Elo得分高居榜首。在MathArena数学竞赛 […]

发布时间:2025年11月19日
独具创新,直击痛点:深度解析华为十大最新方案

独具创新,直击痛点:深度解析华为十大最新方案

快速阅读: 第三个方案,是华为的U6GHzAAU天线。综合来看,华为的U6GAAU,真正实现了容量覆盖双优,助力全球U6G商用。LampSiteX,是LampSite系列的最新型号。第五个方案,是华为有源天线产品——EasyAAU。Easy […]

发布时间:2025年11月13日
Palantir估值承压仍领跑AI赛道

Palantir估值承压仍领跑AI赛道

快速阅读: 近期,美国AI概念股整体承压,Palantir与英伟达遭遇做空传闻,引发市场短暂震荡。然而,在宏观调整与估值质疑中,Palantir仍凭借强劲业绩与差异化AI布局维持长期增长势头。分析人士认为,该公司正处于由“政府数据支撑”向“ […]

发布时间:2025年11月12日
Palantir与Snowflakes深化AI合作

Palantir与Snowflakes深化AI合作

快速阅读: Snowflake 与 Palantir 宣布建立战略合作,整合双方的数据与AI能力,使企业能够在统一的数据基础上直接调用 Palantir 的AI分析与智能应用工具,加速企业级AI落地。 2025年10月,Snowflake […]

发布时间:2025年11月10日
Palantir与迪拜控股共建AI公司

Palantir与迪拜控股共建AI公司

快速阅读: Dubai Holding 与 Palantir 宣布成立合资公司 Aither,致力于为中东地区政府与企业提供人工智能转型解决方案。该合作标志着 Palantir 在中东技术布局的进一步深化,也为当地公共服务与产业数字化提供新 […]

发布时间:2025年11月10日
Palantir携手Lumen共建企业AI平台

Palantir携手Lumen共建企业AI平台

快速阅读: 2025年10月,Palantir Technologies与Lumen Technologies宣布达成战略合作,联合打造面向企业级应用的人工智能服务平台。双方将以Palantir的Foundry与AIP平台为核心,推动通信与 […]

发布时间:2025年11月7日
Palantir携手Hadean拓展英国国防部AI战场模拟平台

Palantir携手Hadean拓展英国国防部AI战场模拟平台

快速阅读: 2025年10月,数据智能公司 Palantir Technologies 宣布与英国分布式计算企业 Hadean 达成战略合作,双方将共同为英国国防部(UK Ministry of Defence, UK MoD)扩展基于人工 […]

发布时间:2025年11月7日