(资料图片仅供参考)
中新经纬5月31日电 当地时间30日,非营利组织人工智能安全中心(Center for AI Safety)发布声明,应减少人工智能对人类带来的灭绝风险。
该声明只有一段非常简短的内容:减轻人工智能带来的灭绝风险,应放在与流行病及核战争等问题同一高度,成为全球优先事项。
目前,这项仅有22个词的声明已获得包括Google DeepMind首席执行官、OpenAI首席执行官、2018年图灵奖得主在内的近400位AI领域高管和著名人士共同签署。
来源:Center for AI Safety官网此前于今年3月,未来生命研究所(Future of Life Institute)也发布了一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。包括马斯克在内的上千名企业高管和研究人员联名签署了这封公开信。
公开信指出,如果不能迅速实施此类暂停,政府应当介入并采取措施。此外,“AI实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级AI设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督”。
本月中,美国参议院司法小组就人工智能相关事项举行了听证会。OpenAI创始人在会上表示,对于缓解人工智能的风险,政府干预至关重要。他提议成立一个美国或全球机构,为人工智能系统颁发许可证,并有权取消许可证以确保符合安全标准。
OpenAI创始人称,“随着这项技术的进步,我们明白人们对它如何改变生活方式感到焦虑。”他指出,“我最担心的是AI会对世界造成重大伤害”,新技术可以解决人类面临的大问题,但人工智能的力量足以以不可预测的方式改变社会。
IBM首席隐私和信任官则在上述会议中呼吁,对人工智能工具的使用方式进行“精确监管”,而不是对其开发方式进行监管。(中新经纬APP)
上一篇 : 苹果展示了改变游戏规则的辅助功能包括实时语音和个人语音_环球热头条
下一篇 : 最后一页