专栏:人工智能、法律和商业 – 由于“人工无能”,人类将需要留下来。
快速阅读: 据《数字日记》称,美国虽是顶级开发者聚集地,但缺乏正式的人工智能指导方针,导致人工智能误用频发,如澳大利亚一案例中,ChatGPT撰写的文件引用了不存在的案例,影响法律职能。人工智能生成的内容需严格监管,因其错误可能导致巨大损失。所有AI工作应受监督,避免因缺陷引发集体诉讼。技术问题亟待解决,确保人工智能系统的安全性与可靠性。
美国是顶级开发者的家园,没有正式的人工智能指导方针——尽管一些现有的隐私保护仍然适用。版权:GETTY IMAGES NORTH AMERICA/AFP 布兰登·贝尔 关于人工智能在法律程序中的新闻不断涌现。大多数似乎都是真实的,就像你在黑暗中摸索时发出的声音。人工智能正在被误用,这并没有真正帮助法律履行其职责。澳大利亚的一个案例说明了这一点。这个案件是由ChatGPT撰写的,并引用了17个从未作为先例存在的案例。这对客户几乎没有帮助。但这并不是全部的故事。虚假引用似乎是一个全球性的问题。它们有时被称为“人工智能臆造”,这是一个毫无意义且危险的委婉说法。这些根本过程显然存在缺陷。这一切都不应该发生。“正当程序”需要“尽职调查”。这些由人工智能撰写的案件实际上比无用更糟糕。它们实际上是提交它们的律师的实际责任。在某些严重的情况下,他们可能会被吊销执业资格。
让我们把垃圾作为文档的想法从纯粹的法律背景中移除:由于缺乏对人工智能提供信息的有效监管,你可能会因许多事情而被起诉。想象一下:购买房产时,如果所有者的名字因错误的人工智能生成而变成别人的名字。合同签订给了错误的人。金融领域的“臆造”可能造成数十亿美元的损失。账户问题。任何仪表板上的基本库存。身份混乱。这可以成为一个很长的列表,但你可以看到这可能导致一场灾难。人工智能服务供应商很可能会承担责任。我厌倦了在人工智能背景下使用“天真”这个词。它变得单调乏味。让我们改用“不可思议的愚蠢”。
这里出现了一个明确的底线:所有的AI工作显然需要由了解如何监督的人进行监督。人工智能生成的任何东西都不能简单地被信任。当涉及到金钱或财产时,你可以期待会因为错误而被彻底追究责任。在商业交易中出现错误时,你完全没有辩护的理由。任何有缺陷的操作中的每一行AI代码都有可能引发集体诉讼。你想让一群人工智能失控在全球范围内以他们的处理速度制造问题吗?
与此同时,存在严重的技术问题:为什么这些持续的系列人工智能愚蠢行为会被容忍?这些缺陷需要在过程中可识别并可追踪。大型语言模型(LLM)有什么问题,使得这样的错误成为可能?由人工智能和人类进行的令人困扰的人工智能破坏问题需要解决。对于那些利己主义、憎恨人类和员工的混蛋们,请听好了。这一系统必须尽快得到修复。这一状况太危险,不能再继续下去了。
(以上内容均由Ai生成)