超700名公众人物呼吁暂停开发AI超级智能
 
                            快速阅读: 超过700位知名人士签署声明,呼吁暂停超级智能AI研发,直至确保安全和公众支持。声明指出,AI快速发展带来潜在风险,包括自由丧失、国家安全威胁乃至人类灭绝。
人工智能的快速发展引起了广泛关注,大型科技公司如谷歌、格罗克、元宇宙和开放人工智能竞相以惊人的速度开发最智能的模型。尽管人工智能对人类的潜在益处显而易见,其负面影响也日益凸显。无论是通过所谓的“人工智能精神病”,还是更严重的情况,正确看待、管理和开发人工智能将同样有利于人类。这种担忧已经到了如此严重的程度,以至于超过700位知名人士签署了一份声明,呼吁在确保安全及获得公众广泛支持之前,暂停超级智能AI的研发。该声明于周四发布,指出开发能够超越人类几乎所有认知任务的人工智能,尤其是在缺乏有效监管的情况下,令人担忧。根据该组织的说法,从自由丧失到国家安全风险乃至人类灭绝,这些担忧都是当前最紧迫的问题。不要错过我们的任何公正的技术内容和实验室评测,可将CNET设置为首选的谷歌来源。签署者中包括“人工智能教父”约书亚·本吉奥和杰弗里·辛顿、前政策制定者以及像凯特·布什和约瑟夫·戈登-莱维特这样的名人。埃隆·马斯克本人此前也曾警告过人工智能的危险,甚至形容人类正在“召唤恶魔”。马斯克还在2023年初与其他技术领袖共同签署了一封类似的信件,敦促暂停人工智能的发展。生命未来研究所本周还发布了一项全国民调,显示只有5%的受访美国人支持目前快速且不受监管地向超级智能发展的趋势。超过一半的受访者(64%)认为,在证明超级智能AI安全可控之前不应开发,73%的受访者希望对高级AI实施强有力的监管。感兴趣的各方也可签署该声明,截至本文撰写时,签名人数已达27,700人。
(以上内容均由Ai生成)
 
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                            