您的 AI 有一个最喜欢的意见 — 但这不是您的意见
快速阅读: 据《黑客 Noon》最新报道,作者安德鲁·J·彼得森指出,尽管大型语言模型(LLMs)在回忆训练数据方面表现良好,但在长尾知识和多样性上仍存在不足。这些模型容易受偏见影响,且难以解释其内部机制。研究尝试通过上采样和Shapley值等方法解决这些问题,但进展有限。此外,LLMs对英语的过度依赖也是一个隐忧。该论文可在arxiv网站上以CC BY-NC-SA 4.0许可证发布。
作者:安德鲁·J·彼得森,普瓦捷大学 ([email protected])。链接表 摘要 和 引言 相关工作 媒体、过滤气泡和 回音室 网络效应与信息级联 模型崩溃 新的 AI 模型 如 LLMs 并未 免于 在 机器学习 算法 中 识别 和 测量 到 的 问题 (Nazer 等,2023年),这些问题 自 至少 1930年代 以来 就 一直 困扰 着 现实世界 中 的 预测算法 (Christian,2021年,第2章)。不出所料,LLMs 在 回忆 训练 数据 中 频繁 出现 的 事实 方面 表现 更好,但在 长尾 知识 方面 则 存在 困难 (Kandpal 等,2023年)。Das 等人 (2024年)指出,LLMs 在 尝试 生成 类似 人类 文本 时 存在 一系列 不足 ,例如 低估 少数 群体 的 观点 ,并 将 “ 积极 ” 文本 的 概念 简化 为 仅仅 表达 “ 快乐 ” 。最近 的 研究 试图 通过 各种 方法 来 解决 这些 问题 ,例如 通过 上采样 来 处理 那些 预测 效果 不佳 的 未充分 表示 的 特征 (Gesi 等,2023年), 或 使用 Shapley 值 评估 输入 数据 的 重要性 (Karlas 等,2022年)。然而,迄今为止 对 LLMs 的 机制 解释 性 研究 表明,尽管 我们 对 它们 的 理解 有所 提高,但仍 非常 有限 (例如,Kramar 等,2024年;Wu 等,2023年)。因此,直接 克服 这些 偏见 的 方法,至少 目前 还 遥不可及 。最后,虽然 大多数 关注点 自然 集中 在 明显 的 种族 和 性别 偏见 上,但 输出 内容 和 形式 中 也 可能 存在 广泛 但 不 那么 显而易见 的 偏见 。例如,Wendler 等人 (2024年)提供 的 证据 表明,当前 基于 大量 英文 文本 训练 的 LLMs 在 其 潜在 表示 中 “ 依赖 ” 英语,仿佛 英语 是 其 参考 语言 。新的 AI 模型 如 LLMs 并未 免于 在 机器学习 算法 中 识别 和 测量 到 的 问题 (Nazer 等,2023年),这些问题 自 至少 1930年代 以来 就 一直 困扰 着 现实世界 中 的 预测算法 (Christian,2021年,第2章)。不出所料,LLMs 在 回忆 训练 数据 中 频繁 出现 的 事实 方面 表现 更好,但在 长尾 知识 方面 则 存在 困难 (Kandpal 等,2023年)。LLM 输出 多样性 的 一个 特定 分析 领域 是 在 解码 策略 背景 下 按 令牌 逐个 分析 。在 某些 情况下,使用 束 搜索 选择 最 可能 的 下 一个 令牌 可能 会 导致 重复 短语 变得 单调 乏味 (Su 等,2022年)。此外,类似于 瑟隆尼奥斯·蒙克 的 旋律 线条,人类 不会 连续 串接 最 可能 的 词语 序列,而是 偶尔 会 从 低 概率 词 中 抽样,打破 常规 (Holtzman 等,2020年)(引用 Grice,1975年)。本文 可 在 arxiv 网站 上 以 CC BY-NC-SA 4.0 许可证 发布。
(以上内容均由Ai生成)