人工智能如何原因
快速阅读: 据《印度快运》称,AI推理系统正成为改善聊天机器人的重要方式。通过强化学习,系统能更好地解决数学、科学等问题。尽管如此,这些系统仍会出错,且是否通向真正智能尚无定论。
但AI真的能像人类一样推理吗?计算机思考意味着什么?这些系统真的接近真正的智能了吗?以下是一份指南。
当一个AI系统推理时,这意味着什么?
推理仅仅意味着聊天机器人会花费更多时间来处理问题。“推理是在问题被提出后系统所做的额外工作,”加州大学伯克利分校的计算机科学教授、AI初创公司Scaled Cognition的首席技术官丹·克莱因说。它可能会将问题分解成个别步骤,或者通过尝试和错误来解决问题。最初的ChatGPT会立即回答问题。新的推理系统可以在几秒钟——甚至几分钟——内处理问题后再作答。
你能更具体一点吗?
在某些情况下,推理系统会改进其对问题的方法,反复尝试提高所选方法的有效性。其他时候,它可能会尝试几种不同的方式来解决问题,然后选择其中一种。或者它可能会回去检查几秒钟前完成的工作,只是为了确认是否正确。基本上,系统会尽其所能来回答你的问题。这有点像一个努力寻找解决数学问题方法的小学生,在一张纸上涂写了几个不同的选项。
什么样的问题需要AI系统推理?
它可以潜在地推理任何事情。但在涉及数学、科学和计算机编程的问题时,推理最为有效。
推理聊天机器人与早期聊天机器人有何不同?
你可以要求早期的聊天机器人展示它们是如何得出某个答案的,或者检查自己的工作。由于最初的ChatGPT是从互联网上的文本中学习的,而那里的人们展示了他们是如何得到答案或检查自己工作的,所以它也能进行这种自我反思。但是推理系统走得更远。它可以在没有被要求的情况下做这些事情,并且以更广泛和复杂的方式进行。公司称之为推理系统,因为它感觉上更像是人在思考难题。
为什么AI推理现在很重要?
像OpenAI这样的公司认为这是改善聊天机器人的最佳方式。多年来,这些公司依赖于一个简单的概念:他们向聊天机器人输入越多的互联网数据,这些系统的性能就越好。但到2024年,他们几乎耗尽了互联网上的所有文本。这意味着他们需要一种新的方法来改善聊天机器人。于是他们开始构建推理系统。
如何构建一个推理系统?
去年,像OpenAI这样的公司开始大量使用一种叫做强化学习的技术。通过这一过程——可能持续数月——人工智能系统可以通过大量试错来学习行为。例如,通过解决数千个数学问题,它可以学习哪些方法会导致正确的答案,哪些不会。研究人员设计了复杂的反馈机制,显示系统何时做得正确,何时做得不正确。“这有点像训练一只狗,”OpenAI的研究员杰里·图沃雷克说。“如果系统表现良好,就奖励它。如果表现不好,就说‘坏狗’。”
强化学习有效吗?
在数学、科学和计算机编程等领域,它相当有效。在这些领域,公司可以清楚地定义好的行为和坏的行为。数学问题有明确的答案。即便回答数学和科学以外的问题,这一过程通常也能提升AI系统的性能。研究人员表示,它逐渐学会哪些推理模式引导它走向正确的方向,哪些不会。“它逐渐学会哪些推理模式引导它走向正确的方向,哪些不会,”Anthropic的首席科学家贾里德·卡普兰说。
强化学习和推理系统是同样的东西吗?
不是。强化学习是公司用来构建推理系统的方法。它是最终允许聊天机器人推理的培训阶段。
这些推理系统还会犯错吗?
当然。聊天机器人所做的每一件事都是基于概率的。它会选择一条最符合其学习数据的路径——无论是来自互联网的数据还是通过强化学习生成的数据。有时它会选择错误或不合逻辑的答案。
这是否是通向具备人类智能机器的道路?
AI专家对此看法不一。这些方法仍然相对较新,研究人员仍在试图了解它们的局限性。在AI领域,新方法往往起初进展迅猛,随后逐渐放缓。
(以上内容均由Ai生成)