专栏:人工智能、法律和商业 — 由于“人工无能”,人类将需要坚持下去
快速阅读: 《数字日记》消息,美国缺乏正式的人工智能指导方针,导致法律程序中频繁出现滥用现象。例如,澳大利亚一案件中,ChatGPT撰写了包含虚假引用的内容。此类问题不仅限于法律领域,还可能引发严重的经济和财产纠纷。所有人工智能工作需由专业人员监督,确保准确性与可靠性。人工智能服务提供商可能面临法律责任,技术缺陷也亟待解决。
美国是顶级开发者的聚集地,但目前尚无正式的人工智能指导方针——尽管一些现有的隐私保护措施依然适用。版权 ©GETTY IMAGES NORTH AMERICA/AFP 布兰登·贝尔关于人工智能在法律程序中的报道日益增多。大多数情况看来是真的,犹如你在黑夜中摸索时所听到的声音。人工智能正被滥用,这并未真正帮助法律履行其职责。澳大利亚的一个案例具有代表性。该案件是由ChatGPT撰写的,并引用了17个从未作为先例存在的案例。这对客户并无多大帮助。但这并非全部真相。虚假引用似乎是一个全球性的问题。它们有时被称为“人工智能生成的错误信息”,这是一种毫无意义且带有误导性的委婉说法。这些根本过程显然存在缺陷。这一切都不应发生。“正当程序”要求“尽职调查”。这些由人工智能撰写的案件实际上比无用更糟糕。它们对提交它们的律师来说是真正的责任。在极其严重的情况下,他们可能会被取消执业资格。
让我们将垃圾作为文件的概念从纯粹的法律环境中移除:仅仅因为缺乏对人工智能提供的信息的有效监督,你可能会因很多事情而被起诉。想象一下:购买房产,如果所有者的名字因错误的人工智能生成而变成别人的姓名。合同签订给了错误的人。金融领域的“幻觉”可能会造成数十亿美元的损失。账户问题。任何仪表板上的基本库存。身份混乱。这可以成为一个长长的清单,但你能看到这可能引发的灾难。人工智能服务提供商可能面临法律责任。我厌倦了在与人工智能相关的背景下使用“天真”这个词。这变得单调乏味。让我们改用“荒谬的无知”这个词。这里出现了一个明确的底线:所有的人工智能工作显然需要由了解如何进行监督的熟练人员进行监督。人工智能生成的任何内容都不能简单地被信任。当涉及到金钱或财产时,你会期望对错误进行彻底的追究。在商业交易中出现错误时,你完全没有辩护的理由。任何失败操作中的每一行人工智能代码都可能引发集体诉讼。你希望有一群失控的人工智能系统在全球范围内以他们的处理速度制造问题吗?
与此同时,存在严重的技术问题:为何这些持续、一连串的人工智能愚蠢行为会被容忍?这些缺陷需要在过程中可识别并可追踪。大规模语言模型(LLM)出了什么问题,使得这种错误成为可能?人工智能破坏这一棘手问题,无论是由人工智能还是人类造成的,都需要解决。对于那些利己主义、憎恨人类和员工的混蛋们,你们明白了吗?这些问题必须尽快得到解决。继续下去太危险了。
________________________________________________________
免责声明:
本文的观点是作者的观点。它们并不表示反映《数码新闻》或其成员的意见或观点。
(以上内容均由Ai生成)