调整 AI 使用以获得更好的结果和更安全的体验的 5 种快速方法

发布时间:2025年3月14日    来源:szf
调整 AI 使用以获得更好的结果和更安全的体验的 5 种快速方法

快速阅读: 据《ZDNet》最新报道,随着AI技术普及,安全使用生成式AI至关重要。专家提出五点建议:明确指令、核查回复、保护隐私、避免人格化、谨慎选用模型。例如,清晰指令可减少误读,仔细核查能避免错误信息。

Getty Images/希拉街工作室

随着人工智能(AI)技术日益普及,我们已经难以避开它的身影。例如谷歌搜索中展示的人工智能响应。在这个技术广泛传播的时代,AI安全的重要性前所未有地突出。那么,作为AI用户,你该如何安全地使用生成式人工智能(Gen AI)呢?

此外:

为何应忽视99%的AI工具——以及我每日使用的四个工具

卡内基梅隆大学计算机科学学院助理教授马尔滕·萨普和舒瑞·童霜武登上了SXSW舞台,向公众介绍大型语言模型(LLMs)技术的不足之处,这些模型是流行生成式AI工具背后的技术类型,例如ChatGPT,并解释了人们如何更高效地利用这些技术。

“它们非常出色,且无处不在,但它们远未达到完美,”萨普说道。

对于日常与AI的互动,你可以进行一些简单的调整。这些调整不仅能保护你免受AI缺陷的影响,还能帮助你从AI聊天机器人中获取更多价值,包括更准确的回复。继续阅读以了解专家提出的优化AI使用的五种方法。

1. 给AI更好的指令

由于AI具备对话能力,人们通常会采用不够明确、简短的提示,仿佛是在与朋友交谈。然而,当指令不足时,AI系统可能会错误地推断你的文本提示的字面意思,因为它们缺乏人类解读言外之意的能力。

为了解释这个问题,在他们的演讲中,萨普和童霜武告诉一个聊天机器人他们正在阅读一百万本书,而聊天机器人却将其误解为字面事实,而非夸张的表达。萨普分享了他的研究发现,现代LLMs超过半数时间无法以字面方式理解非字面引用。

解决这个问题的最佳办法是通过更明确的要求来澄清你的提示,减少误读或错误的空间。童霜武建议将聊天机器人视为助手,并清楚地指示它们你想要的具体操作。尽管这种方式在编写提示时可能需要更多努力,但结果应该更符合你的预期。

此外:

AI能否在不剽窃艺术家的情况下激发创造力?

2. 仔细检查你的回复

如果你曾使用过AI聊天机器人,你会发现它们会生成幻象,即输出错误的信息。幻象可能以多种形式出现,比如输出事实错误的回复、错误总结给定信息,或者同意用户分享的虚假事实。

萨普表示,对于一般的日常使用场景,幻象的发生率在1%到25%之间。而在法律和医学等专业领域,幻象率甚至更高,超过了50%。这些幻象难以被察觉,因为它们听起来合理,即使它们毫无意义。

此外:

AI代理不仅仅是助手:它们如何改变今天的工作未来

模型常常通过诸如“我很自信”之类的标记来强化其回复,即便提供的信息是错误的。在演示中引用的一项研究指出,AI模型有47%的时间对其回复确信但错误。

因此,保护自己免受幻象影响的最佳方法是仔细检查你的回复。一些策略包括用外部资源(如谷歌或你信任的新闻媒体)交叉验证你的输出,或者用不同的措辞再次询问模型,看看AI是否输出相同的回复。

虽然使用ChatGPT协助你不熟悉的主题可能很有吸引力,但如果你的提示保持在你专业知识范围内,更容易识别错误。

此外:

AI能否在不剽窃艺术家的情况下激发创造力?

3. 保护你关心的数据隐私

生成式AI工具基于大量数据进行训练。它们还需要数据来继续学习,以变得更智能、更高效。因此,模型通常会使用其输出进行进一步训练。

问题是,模型经常在其回复中重复其训练数据,这意味着你的私人信息可能会出现在其他人的回复中,从而暴露你的私人数据。使用网络应用程序时也存在风险,因为你的私人信息会离开你的设备并在云端处理,这带来了安全问题。

保持良好AI卫生的最佳方法是避免与LLMs共享敏感或个人数据。在某些情况下,你所需的帮助可能涉及使用个人数据。你还可以对这些数据进行数据脱敏处理,确保你在获得帮助的同时没有风险。许多AI工具,包括ChatGPT,都有让用户选择退出数据收集的选项。即使你不打算使用敏感数据,选择退出始终是一个好选择。

4. 注意你谈论LLMs的方式

AI系统的功能及其能够使用自然语言与其交互的能力,让一些人高估了这些机器人的能力。人格化,即将人类特征赋予机器,是一个危险的滑坡。如果人们认为这些AI系统接近人类,他们可能会给予它们更多的责任和数据信任。

此外:

为何OpenAI的新AI代理工具可能会改变你的编码方式

根据专家的说法,一种缓解这一问题的方法是在提到这些AI模型时停止赋予它们人类特征。与其说“模型认为你想得到平衡的回答”,萨普建议更好的替代说法是:“该模型的设计是基于其训练数据生成平衡回答。”

5. 认真考虑何时使用LLMs

尽管这些模型似乎可以帮助几乎每一个任务,但在许多情况下,它们可能无法提供最佳帮助。虽然基准测试可用,但它们只涵盖用户与LLMs交互的一小部分。

此外:

即使是高端AI工具也会扭曲新闻并捏造链接——这些都是最糟糕的情况

LLMs也不一定适合所有人。除了上述提到的幻象外,还有记录显示LLMs会做出种族主义决定或支持西方中心偏见。这些偏见表明模型可能不适合在许多应用场景中提供帮助。

因此,解决方案是在使用LLMs时要深思熟虑且谨慎。这种做法包括评估使用LLM的影响,以确定它是否是你问题的最佳解决方案。查看哪些模型在特定任务上表现优异,并为你的需求选择最佳模型也很有帮助。

想了解更多关于AI的故事?

订阅《创新》,我们的每周通讯。

(以上内容均由Ai生成)

你可能还想读

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

快速阅读: 谷歌推出Pixel 10手机及Pixel Watch 4,新增卫星紧急通讯、可更换电池和屏幕、抬手通话等功能,屏幕亮度达3000尼特,还将与斯蒂芬·库里合作推出AI健康和健身教练服务。 谷歌本周在“由谷歌制造”活动中推出了Pix […]

发布时间:2025年8月23日
SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

快速阅读: 据《《韩国先驱报》》称,7月20日,SK海力士首登全球内存芯片市场榜首,受益于AI产品和HBM芯片领先地位。其季度利润达9.2万亿韩元,远超三星。 据韩联社报道,7月20日,韩国京畿道伊川,SK海力士首次登上全球内存芯片市场榜首 […]

发布时间:2025年8月1日
STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

快速阅读: 据《印度教业务线》称,STAN获850万美元融资,由万代南梦宫等机构投资。计划拓展印度市场,加强AI功能与创作者工具。平台用户超2500万,专注移动端社交游戏。 记者获悉,8月1日,社交游戏平台STAN宣布完成850万美元的新一 […]

发布时间:2025年8月1日
“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

快速阅读: 据《营销周》称,谷歌推出AI搜索模式,减少外部链接,提升对话式回答。品牌需调整策略,重视内容质量与品牌权威。此变化影响营销方式,竞争加剧。 据谷歌官方消息,7月29日,谷歌在英国推出了基于人工智能的搜索功能AI模式,此前该功能已 […]

发布时间:2025年8月1日
在 Android 上用更智能的应用程序替换 Google Assistant

在 Android 上用更智能的应用程序替换 Google Assistant

快速阅读: 据《电话竞技场》称,据报道,用户可从Google Play下载Meta AI应用,安装后需检查版本是否为230.0.0.36.164或更高。操作方法:进入设置,选择应用,查看Meta AI信息页底部的版本号。 据媒体报道,用户现 […]

发布时间:2025年8月1日
Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

快速阅读: 据《UKTN(英国科技新闻)》称,英国科技媒体UKTN报道,Xero英国总经理凯特·海沃德表示,会计行业无需过度担忧AI自动化。尽管四大事务所裁员,但Xero仍持续投资AI技术,提升效率与服务质量。 据英国科技新闻网站UKTN报 […]

发布时间:2025年8月1日
Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

快速阅读: 据《商业标准》称,Reddit CEO表示,公司正将平台转型为搜索引擎,整合AI功能,提升用户体验。Reddit Answers用户已超600万,计划全球推广。 据《The Verge》报道,7月11日,Reddit首席执行官史 […]

发布时间:2025年8月1日
Meta 超出预期,为“个人超级智能”做准备

Meta 超出预期,为“个人超级智能”做准备

快速阅读: 据《RCR无线》称,Meta二季度营收475.2亿美元,净利润183亿美元。CEO扎克伯格称将打造个人超级智能,但数据中心扩容遇挑战。公司计划2025年支出达1140-1180亿美元。 据媒体报道,7月25日,美国加州,社交媒体 […]

发布时间:2025年8月1日