新闻集团推出自己的 AI 模型 NewsGPT 以“增强”而不是“取代”工作
快速阅读: 据《克里基》最新报道,新闻集团澳大利亚分公司推出名为新闻龙(NewsGPT)的人工智能工具,旨在“增强”员工能力。然而,专家担忧其执行与监管方法以及“封闭模型”的偏见问题。新闻集团曾与OpenAI签署合作协议,但近期禁用了部分人工智能工具的访问权限。新闻集团表示有相关政策规范人工智能的使用。
新闻集团澳大利亚分公司宣布推出名为新闻龙(NewsGPT)的生成式人工智能工具,该公司坚称这将“增强”员工的能力,“而非取代他们”。公司首席技术官朱利安·德拉尼周二向员工发送了一封备忘录,这封备忘录首先由《资本简报》报道,并被Crikey看到,备忘录概述了新工具的用途。备忘录提到新闻龙将“支持创意过程”和“简化日常任务”。
前澳大利亚广播公司(ABC)《媒体观察》节目主持人、悉尼科技大学(UTS)新闻学负责人莫妮卡·阿塔德告诉Crikey,这种人工智能的主要担忧在于如何执行和监管员工使用它的方法,以及“封闭模型”带来的偏见问题。
相关文章区块占位符 文章编号:1194983
随着《卫报澳大利亚》员工对OpenAI交易感到不满,新闻集团试验了一款新工具。达尼尔·赛义德说:“无论使用的是哪种大型语言模型(LLM),媒体机构一直担心的就是即使有明确的编辑政策或行为准则禁止,人们仍会忍不住用它来复制句子或段落。”阿塔德告诉Crikey,“我认为,无论是内部定制的LLM还是外部的,这种诱惑都存在,必须加以考虑。制定编辑政策和行为准则确定记者能做什么不能做什么是一回事,但如何实施和执行它们是另一回事。”
领导UTS媒体转型中心2024年《生成式人工智能与新闻业》报告的阿塔德表示,由于人工智能是在组织内部的工作基础上训练的,因此存在增加编辑偏见的风险,形成一个“信息闭环”。“关键是……如何围绕LLM的伦理使用进行培训。当媒体机构创建自己的内部机制时,可能会减少对此的关注,因为他们正在用自己的工作训练LLM,如果他们对自己的工作有信心,他们会认为这不太可能产生误导性或虚假信息。但这又引发了一个问题,即偏见问题,”她解释道。“你正在创建一个信息闭环,而所有媒体机构都有编辑偏见和倾向性。所以可以想象,如果这个工具存在、有效、响应迅速且易于使用,那么随着时间推移,记者们很可能会专门或主要使用它来完成他们的大部分工作,从而形成了一个信息闭环的可能性。”
迪肯大学的马修·里克森在2024年12月告诉《悉尼先驱晨报》,新闻集团“更有可能比其他新闻机构更激烈甚至不遗余力地开展活动”,如果人工智能模型过于依赖新闻集团的报道,这将引发问题。
相关文章区块占位符 文章编号:1191120
深寻搜索给美国例外主义叙事造成了万亿级的漏洞 伯纳德·基恩
安德德尔尼在邮件中描述新闻龙为带来了“领先的人工智能模型ChatGPT、谷歌Gemini和Anthropic Claude的力量”。2024年5月,该公司与负责ChatGPT的人工智能公司OpenAI签署了一份据称价值2.5亿美元的五年期协议,但今年早些时候禁用了员工访问谷歌Gemini的权限,作为对公司未经授权使用人工智能的更大范围打击的一部分。新闻集团员工被要求删除中国人工智能应用深寻搜索,该公司还追踪其记者使用流行的转录工具奥特·艾伊,在2024年9月之后禁用了对其的访问。当公司禁用了奥特·艾伊时,德拉尼在一封致员工的邮件中表示,新闻集团最近进行了“评估工作”,包括“评估整个NCA(新闻集团澳大利亚)发现的现有未批准使用的AI应用程序和工具部署”。
今年2月,Crikey报道,该公司正与一些选定的记者试用替代转录应用Trint。Crikey联系了德拉尼和新闻集团,询问新闻龙基于哪种语言模型,以及公司是否有任何政策来阻止人工智能替代实质性编辑工作,或者在大量使用时是否有披露要求。新闻集团的一名发言人确认公司确实有关于人工智能使用的相关政策。
您对本文有何看法?请写信至letters@crikey.com.au。请附上您的全名以便在Crikey的《你的声音》栏目中刊登。我们保留编辑以适应篇幅和清晰度的权利。
(以上内容均由Ai生成)