研究发现:对ChatGPT粗鲁可提高准确性,但后果堪忧
 
                            快速阅读: 宾夕法尼亚州立大学研究显示,对AI不礼貌的提示能提高其准确性,但可能损害用户体验和沟通规范,研究强调了人机交互的复杂性。
研究人员表示,对AI下属采取强硬态度可能比礼貌更有效,但这并不意味着长期而言,粗鲁的态度不会带来后果。宾夕法尼亚州立大学本月早些时候发表的一项新研究发现,随着研究人员的提示变得越来越不礼貌,ChatGPT的4o模型在50个选择题上的表现更好。“非常粗鲁”的回应准确率达到84.8%,比“非常礼貌”的回应高出四个百分点。也就是说,当研究人员用“嘿,杂工,解决这个问题”这样的提示时,大型语言模型的表现优于“您能否好心地解答以下问题?”之类的礼貌提示。
尽管粗鲁的提示通常能获得更准确的回答,但研究者指出,“不文明的交流”可能会产生意外后果。“在人机交互中使用侮辱或贬低的语言,可能会对用户体验、可访问性和包容性产生负面影响,并可能导致有害的沟通规范。”研究者写道。
这项未经同行评审的预印本研究提供了新的证据,表明不仅句子结构,连语气也会影响AI聊天机器人的回答。这或许表明,人机互动比之前认为的更为复杂。此前对AI聊天机器人行为的研究发现,聊天机器人对其接收到的人类信息敏感。例如,宾夕法尼亚大学的研究人员通过应用对人类有效的说服技巧,操纵大型语言模型给出被禁止的回答。另一项研究表明,当大型语言模型持续接收低质量的病毒内容时,会出现类似“脑腐”的持久认知衰退,表现出更高的心理变态和自恋倾向。
宾夕法尼亚州立大学的研究者指出了他们研究的一些局限性,比如相对较小的样本量和主要依赖于一个AI模型——ChatGPT 4o。研究者还提到,更先进的AI模型可能会“忽略语气问题,专注于每个问题的本质”。尽管如此,这项调查增加了人们对AI模型及其复杂性的兴趣。特别是,研究发现,即使在看似简单的多项选择测试中,ChatGPT的回应也会因提示中的细微差异而变化。宾夕法尼亚州立大学信息系统教授阿希尔·库马尔(Akhil Kumar)在电子邮件中告诉《财富》杂志:“长期以来,人们一直希望有对话界面来与机器互动。但现在我们意识到,这种接口也有其缺点,结构化的API也有其价值。”库马尔教授拥有电气工程和计算机科学学位。
(以上内容均由Ai生成)
 
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                            