Anthropic欲用Claude聊天数据训练AI,用户可选择退出
快速阅读: Anthropic将使用Claude的聊天记录训练AI模型,新用户可选择参与,现有用户需在9月28日前决定是否退出。参与用户的聊天记录将保存五年,以检测有害使用模式。
Anthropic 将于近期开始使用聊天记录来训练其热门聊天机器人 Claude。该公司周四更新了消费者条款和隐私政策,宣布了这一消息。
新用户在注册过程中将看到一个“帮助改进 Claude”的选项,可以自由选择开启或关闭。现有用户将收到通知,解释这一变化。用户可在9月28日前选择退出,默认情况下该选项将自动启用。用户仍可以在 Claude 的隐私设置中关闭该选项。
Anthropic 的代表拒绝发表评论。
CNET 提供无偏见的技术内容和实验室评测,欢迎将我们设为 Chrome 上的首选谷歌来源。
### 变化内容
从9月底起,使用 Claude 免费版、专业版、最大版或代码版的个人用户将受到这一变化的影响。启用该选项后,AI 训练将仅在新的和恢复的聊天及编码会话中进行。未重新访问的旧聊天记录暂时不会受到影响。
更新后的政策有一些例外情况。Claude for Work(团队计划和企业计划)、Claude Gov 和 Claude Education 不受影响。第三方应用程序编程接口(API)使用,包括亚马逊 Bedrock 和谷歌云的 Vertex AI,也不受此政策影响。
截至9月28日,用户可以选择忽略通知,关闭或选择“稍后”选项。之后,用户必须做出选择才能继续使用 Claude。
### 数据保留变化
选择参与 AI 模型训练的用户数据将比之前的30天窗口期大幅延长。这些用户的聊天记录将保存五年,仅适用于新的或恢复的聊天会话。Anthropic 表示,延长数据保留期限将有助于公司识别滥用行为和检测有害使用模式。
### 如何更新隐私设置
如果您不小心选择了新变化或改变主意,随时可以取消。以下是操作步骤:
#### 在网页上:
1. 点击左下角的用户图标
2. 点击“设置”
3. 从侧边栏中点击“隐私”
4. 关闭“帮助改进 Claude”选项
#### 在手机上:
1. 点击左上角的三横线图标
2. 点击齿轮图标
3. 点击“隐私”
4. 关闭“帮助改进 Claude”选项
如果您之前选择参与,后来决定退出,新的和恢复的聊天记录将不再用于未来的 AI 模型训练。已经参与的培训数据仍将包括在正在进行的培训和已训练的模型中,但不会用于未来的培训。
(以上内容均由Ai生成)