财经风云--“ChatGPT之父”再次警告:建议成立类似国际原子能机构的组织来监管AI

caijing 发布于 2023-6-7 9:29:00

 

 “ChatGPT之父”再次警告:建议成立类似国际原子能机构的组织来监管AI
article.author.display_name
曹泽熙



周二,Altman在访问阿拉伯联合酋长国期间警告说,AI对人类构成“生存风险”,并建议成立类似国际原子能机构的政府间监管机构监督这项突破性技术的发展。他认为当前所处的时间点非常微妙,因为AI技术今天并没有那么危险,但它会很快变得危险。
近来频频呼吁对AI技术加强监管的OpenAI CEO Sam Altman再次强力发声,呼吁成立类似联合国系统下国际原子能机构的监管机构来监管AI技术。

6月6日周二,Altman在访问阿拉伯联合酋长国期间警告说,AI对人类构成“生存风险”,并建议成立类似国际原子能机构的政府间监管机构监督这项突破性技术的发展。

Altman说:

世界面临的挑战是我们如何管理这些风险并确保我们仍能享受到这些巨大的好处。没有人想毁灭世界。

OpenAI研发的ChatGPT的成功让人们得以一窥AI如何改变人类工作和学习的方式,这也引发了人们的担忧。包括Altman在内的数百名行业领袖在5月份签署了一封公开信,警告说“减轻AI灭绝人类的风险应该与疫情和核战争等风险一起被列为全球优先事项。”

Altman特别提到了联合国旗下的核能监督机构国际原子能机构(IAEA),该组织是二战结束前夕美国向日本投下两颗原子弹后的几年内成立的,旨在确保全球核能安全。

Altman说:

让我们确保我们能够团结一致,成立一个全球性的组织——我希望这个组织能够在监管AI方面发挥真正的作用。

我们将国际原子能机构视为一个典范,全世界都在说‘好吧,非常危险的技术,让我们设置一些护栏吧。’我认为我们可以兼顾AI技术的发展和监管。

我认为当前我们处在一个非常微妙的时间点,因为AI技术今天并没有那么危险,但它会很快变得危险。但我们可以提前做好准备。

5月30日,非营利组织“人工智能安全中心”(Center for AI Safety)在其官网发布一封联名公开信,称这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

整个声明只有一句话,22个单词:

减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与疫情及核战争等其他影响社会的大规模风险处于同等级别。

更早些时候,在一次出席美国国会听证会时,Altman基本上同意议员们的观点,即有必要对他的公司以及谷歌和微软等公司正在开发的日益强大的AI技术进行监管。不过,在对话早期阶段,他们和立法者都无法明确告诉公众,这种监管应该是什么样子。

随后,Altman在一篇博客文章中称,未来十年内,AI系统有望超过专家水平,在大多数领域展现出与当今最大企业相当的生产能力。然而,超级智能技术带来的潜在利益和风险将比过去任何其他技术更加巨大。为了实现更加繁荣的未来,我们必须管理好超级智能的风险,并确保其与社会的顺利融合。

为了实现这一目标,Altman等人指出:

我们有很多事情可做。首先,我们需要在领先的开发努力之间进行协调,确保超级智能的发展安全可控。我们还需要建立类似于国际原子能机构的国际机构来监督超级智能的研究和应用,确保其符合安全标准,并限制其部署和安全级别。此外,我们需要致力于研发使超级智能安全可控的技术能力。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

 

 

|站点首页 | 联系我们 | 博客登陆
蜀ICP备11003155号-1 有害信息举报

特别声明:本站不提供任何视听上传服务,所有视频内容均来自视频分享站点所提供的公开引用资源

Powered by oBlog 2.52 © Copyright 2004. All rights reserved.