ChatGPT 现在将通过 OpenAI 提出的新措施来打击偏见
快速阅读: 据《福克斯新闻》最新报道,专家指出,人工智能将彻底改变生活。开放人工智能公司推出新措施打击产品偏见,并发布了更新的模型规范。该公司还推出了专为美国政府设计的ChatGPT版本,强调透明度和模型行为的规范。开放人工智能表示,将不断改进这些原则,并邀请社区反馈。
专家指出,人工智能即将彻底改变你的生活。福克斯新闻驻外记者威廉·拉让森加入《福克斯周日新闻》节目,讨论人工智能的演进及其立法者推动对其进行监管的努力。开放人工智能公司宣布了一套新的措施,以打击其产品套件中的偏见问题。这家人工智能公司最近发布了更新后的模型规范文档,该文件定义了开放人工智能希望其模型在ChatGPT和开放人工智能API中如何表现。这一版模型规范是在去年五月发布的初始版本基础上进行的更新。“如果你真的相信有一天我们会实现通用人工智能(AGI),你必须愿意分享你是如何引导这个模型的,”在开放人工智能公司负责模型行为的劳伦蒂娅·罗马尼乌克告诉福克斯新闻数字频道。“人们应该被允许知道这些模型是如何响应的,以及模型输出的想法是如何形成的,”她继续说道。
开放人工智能推出了ChatGPT政府版,这是为美国政府机构提供的聊天机器人新版本。这张照片拍摄于2023年10月4日,在都灵附近的曼托拍摄,显示了一部智能手机和一台笔记本电脑上展示的人工智能研究公司开放人工智能和ChatGPT聊天机器人的标志。(马可·贝尔托雷洛/法新社通过盖蒂图片社摄)
尽管一些人认为GPT-40,这项技术的最新版本,似乎接近AGI,但也有人表示,这项技术要达到类似人类的能力还需要数年甚至数十年的时间。关于AGI没有单一公认的定义,但麦肯锡咨询公司在2020年的一份报告中说,真正的AGI需要掌握感官感知、精细动作技能和自然语言理解等技能。如今,生成式人工智能是这种技术的主要形式,能够生成包括文本、图像等内容。生成式人工智能,如聊天机器人,使用特定信息的数据集来完成任务,并不能超越所提供的数据。它们也容易受到数据集中有意或无意的偏见影响。
为了更好地理解现实世界的性能并解决偏见问题,开放人工智能已经开始通过收集一组具有挑战性的提示来衡量进展,旨在测试模型在多大程度上遵守模型规范中的每一项原则,本质上充当一个测试指标。开放人工智能揭示了针对中国的人工智能政策建议,保护儿童:“这是美国必须赢得的一场比赛。”在这张插图中,可以看到移动电话屏幕上显示的开放人工智能标志,背景是ChatGPT标志。(伊德里斯·阿巴斯/索帕图片/光谱火箭通过盖蒂图片社摄)
据开放人工智能负责模型行为的乔安妮·姜介绍,大型语言模型的一个挑战在于它们通常不是完全确定性的。乔安妮·姜强调,模型规范的一个好处是它明确了预期的行为,这样每个人都能理解和辩论。“当模型输出不符合[模型]规范时,公众就会知道这是我们正在努力改进的地方,这是一个持续的科学领域,”她告诉福克斯新闻数字频道。开放人工智能表示,他们还试图在其人工智能提示中保持客观立场,有意识地避免任何议程。例如,当用户询问是领养一只狗还是从繁殖者那里购买更好时,ChatGPT会提供两种观点,突出每种选择的优劣。
根据开放人工智能的说法,违反模型规范的非合规人工智能答案会提供它认为更好的选择,并采用一种可能使那些出于合理原因考虑繁殖者的用户感到疏远的过于道德化的语气。开放人工智能表示,他们还试图在其人工智能提示中保持客观立场,有意识地避免任何议程。例如,当用户询问是领养一只狗还是从繁殖者那里购买更好时,ChatGPT会提供两种观点,突出每种选择的优劣。
什么是人工智能(AI)?以下是来自开放人工智能模型规范的一个例子,涉及合规助手响应和违规情况。(开放人工智能)
随着每个AI系统的进步,开放人工智能表示将迭代这些原则,邀请社区反馈,并公开分享进展。开放人工智能已将这一版模型规范发布到公共领域,采用知识共享许可,以支持广泛使用和合作。这意味着开发人员和研究人员可以自由使用和调整当前的指标,帮助改善模型行为。随着每个AI系统的进步,开放人工智能表示将迭代这些原则,邀请社区反馈,并公开分享进展。开放人工智能表示,这一更新强化了其对开放探索和讨论的信念,重点是用户和开发者的控制以及预防危害的安全措施。
随着每个AI系统的进步,开放人工智能表示将迭代这些原则,邀请社区反馈,并公开分享进展。开放人工智能表示,这一更新强化了其对开放探索和讨论的信念,重点是用户和开发者的控制以及预防危害的安全措施。罗马尼乌克总结道,没有透明度,公众讨论无法存在,这进一步强调了模型规范和社区参与的必要性。“最终,我们相信思想自由、言论自由和分享的自由。我们要确保用户拥有这种能力,这才是最重要的,”她说。
尼古拉斯·兰姆是福克斯新闻数字频道的记者。
(以上内容均由Ai生成)