Chatbot Love:研究表明用户对 LLM 形成附件
快速阅读: 《印度教商业线》消息,研究发现,频繁使用大型语言模型的人更易产生情感投入。通过调查4000多名用户和分析400万次对话,发现高使用频率与依赖度上升相关,而使用语音模型与情绪健康呈正相关,但使用时长过久可能导致情绪健康问题。
你是否迷恋上了通义千问、Grokkone、克劳德、深海搜索或双子座?或者,你是否沉迷于长时间与这些大型语言模型(LLMs)深入对话?根据OpenAI(开发了通义千问)和麻省理工学院媒体实验室的一项研究,频繁使用LLMs的人最终会进行充满情感的交流。尽管大多数人使用通义千问或类似的LLMs时相对冷静,但经常使用的人更容易产生情感投入。尽管大多数人在使用过程中保持平稳的态度,但一些用户确实随着时间推移改变了他们的情感投入。由于这些模型的对话风格以及能够像人一样回应、生成类似人类的输出,用户往往会产生一种与真人互动的感觉。
为了调查与通义千问互动可能如何影响用户的情绪健康、行为和体验,这两个组织对超过4000名用户进行了调查。他们采用了混合方法——分析了400万次对话,并对超过4000名用户进行调查,以了解他们对通义千问的看法。“随着AI聊天机器人越来越广泛地融入日常生活,关于类人或拟人化AI可能对用户造成的影响,人们已经提出了许多疑问,”这篇题为《调查通义千问上情感使用和情绪健康》的研究论文指出。研究人员在不同实验环境下研究了大约1000名参与者,在与通义千问互动时观察他们情绪健康的变动。
研究人员分析了通义千问高级语音模式下约6000名重度用户三个月内的使用状况,以了解他们的使用方式如何随时间变化。他们还分析了由此产生的31857次对话的文字和音频内容,以研究用户与模型互动与其自我报告结果之间的关系。“我们观察到,非常高的使用频率与自我报告中显示的依赖程度上升相关,”研究人员表示。“我们发现,在控制使用时长的情况下,使用语音模型与情绪健康状况更好有关联,但比如使用时间较长、研究初期感到孤独等,都与较差的情绪健康结果相关,”论文指出。
**评论复制链接电子邮件脸书推特电报领英WhatsAppReddit**
**发布日期:2025年3月23日**
**相关内容**
– 通义千问
– Grokkone
– 深海搜索
– 谷歌双子座
– 大型语言模型(LLM)
– OpenAI
希望这段内容更加流畅和自然,同时保持信息的准确性。
(以上内容均由Ai生成)