顶级人工智能研究人员在周二的一篇论文中表示,人工智能公司和政府应拨出至少三分之一的人工智能研发资金,以确保这些系统的安全和道德使用。
这份文件是在伦敦国际人工智能安全峰会召开前一周发布的,列出了政府和企业应对人工智能风险应采取的措施。
三位图灵奖得主、一位诺贝尔奖得主和十几位顶级人工智能学者共同撰写的论文称:“政府还应该要求公司对其前沿人工智能系统造成的损害承担法律责任,这些损害是可以合理预见和预防的。”
目前还没有针对人工智能安全的基础广泛的法规,欧盟的第一套立法尚未成为法律,因为立法者尚未就几个问题达成一致。
“最近最先进的人工智能模型太强大了,太重要了,不能让它们在没有民主监督的情况下发展,”被称为人工智能教父的三人之一约书亚·本吉奥(Yoshua Bengio)说。
他说:“(对人工智能安全的投资)需要迅速进行,因为人工智能的发展速度远远快于采取的预防措施。”
作者包括Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song和Yuval Noah Harari。
自OpenAI的生成式人工智能模型推出以来,顶级学者和埃隆·马斯克(Elon Musk)等知名首席执行官就人工智能的风险发出了警告,包括呼吁暂停开发强大的人工智能系统6个月。
一些公司对此进行了反驳,称它们将面临高昂的合规成本和不成比例的责任风险。
英国计算机科学家斯图尔特·拉塞尔说:“公司会抱怨很难满足监管要求——‘监管扼杀了创新’——这太荒谬了。”
“对三明治店的监管比对人工智能公司的监管还多。”
点击分享到








