【华e生活编译】超过2600名科技领导者和研究人员签署了一封公开信,敦促暂时停止进一步的人工智能(AI)开发,担心“对社会和人类造成深刻的风险”。
这封信由美国智库未来生命研究所(FOLI)于3月22日发表,特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及许多人工智能首席执行官、首席技术官和研究人员都在这封信的签署人之列。
该研究所呼吁所有人工智能公司“立即暂停”训练比GPT-4更强大的人工智能系统至少6个月,共同担心“人类竞争智能可能对社会和人类构成深远的风险”。
“先进的人工智能可能代表着地球生命史上的一次深刻变革,应该以相应的关心和资源来规划和管理。不幸的是,这种水平的规划和管理没有发生。”该研究所写道。
GPT-4是OpenAI人工智能聊天机器人的最新版本,于3月14日发布。到目前为止,它已经通过了一些最严格的美国高中和法律考试,在90百分位以内。据了解,它比ChatGPT的原始版本先进10倍。
人工智能公司之间存在着一场“失控的竞赛”,以开发更强大的人工智能,“没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制”,FOLI声称。
其中最令人担忧的问题是,机器是否会充斥信息渠道,可能带来“宣传和虚假”,以及机器是否会“自动化带走”所有就业机会。
FOLI将这些担忧进一步推进了一步,认为这些人工智能公司的创业努力可能会导致生存威胁:
“我们是否应该开发出在数量上、智力上可能最终超过我们、被淘汰并取代我们的非人类思维?我们是否应该冒着失去对我们文明控制的风险?”
信中还说,“这样的决定绝不能委托给未经选举产生的科技领袖。”
该研究所还同意OpenAI创始人山姆·奥特曼最近的一份声明,即在训练未来的人工智能系统之前,应该进行独立审查。
奥特曼在2月24日的博客文章中强调了为人工通用智能(AGI)和人工超级智能(ASI)机器人做准备的必要性。
不过,并不是所有的人工智能专家都急于签署请愿书。奇点网首席执行官本·戈泽尔(Ben Goertzel)在3月29日的Twitter上回应了《重启》一书的作者加里·马库斯(Gary Marcus)。人工智能,语言学习模型(LLMs)不会成为AGI,到目前为止,这方面的发展很少。
相反,他说,应该放慢生物武器和核武器等东西的研发速度:
除了像ChatGPT这样的语言学习模型,人工智能驱动的深度造假技术还被用于制造令人信服的图像、音频和视频骗局。这项技术还被用于创作人工智能生成的艺术品,有人担心在某些情况下它是否会违反版权法。
银河数字首席执行官迈克·诺沃格拉茨最近告诉投资者,他对监管机构对加密货币的关注程度感到震惊,而对人工智能的关注却很少。
“当我想到人工智能时,我很震惊,我们谈论了这么多加密监管,而对人工智能监管却只字不提。我的意思是,我认为政府完全搞错了。”他在3月28日的股东电话会议上表示。
FOLI认为,如果人工智能发展的暂停不能迅速实施,政府应该参与暂停。
他说:“暂停行动应该是公开的、可核实的,并包括所有关键行为者。如果这样的暂停不能迅速实施,政府应该介入并实施暂停。”