您的当前位置:首页 >焦点 >AI前哨|AI领袖警告美国:AI难控制 两年就可制造出生化武器 正文

AI前哨|AI领袖警告美国:AI难控制 两年就可制造出生化武器

时间:2024-03-29 06:05:28 来源:网络整理编辑:焦点

核心提示

    Anthropic CEO阿莫代伊担心AI被用于制造生化武器凤凰网科技讯 《AI前哨》北京时间7月26日消息,美国当地时间周二,三位人工智能(AI)行业领袖在美国国会参议院司法委员会举行的听证 重生九零:娇妻,有点甜

    

Anthropic CEO阿莫代伊担心AI被用于制造生化武器

Anthropic CEO阿莫代伊担心AI被用于制造生化武器

凤凰网科技讯 《AI前哨》北京时间7月26日消息,美国当地时间周二,领袖三位人工智能(AI)行业领袖在美国国会参议院司法委员会举行的警告重生九零:娇妻,有点甜听证会上作证。他们警告称,美国AI的难控年疯狂发展速度可能会在未来几年内造成严重危害,比如流氓国家或恐怖分子会利用这项技术制造生化武器。制两制造

此次听证会很好地展示了人们对于AI会超过人类智慧的出生担忧。多年来,化武人们的前哨器这种担忧原本只存在于科幻小说中。然而,领袖随着ChatGPT横空出世并引发AI竞赛,警告这一担忧迅速成为主流声音。美国重生九零:娇妻,有点甜

两年就可制造生化武器

美国AI创业公司Anthropic CEO达里奥·阿莫代伊(Dario Amodei)在听证会上表示,难控年他担心尖端AI技术可能在短短两年时间内就会被用来制造危险的制两制造病毒和其他生化武器。

蒙特利尔大学AI教授、出生“现代AI科学之父”约书亚·本吉奥(Yoshua Bengio)认为,美国应该推动国际合作来控制AI的发展,他还概述了一种类似于核技术国际监管规则的管理制度。

“最近,我和其他许多人都对ChatGPT等AI系统实现的巨大飞跃感到惊讶。AI进步的加快更令人担忧。”本吉奥表示。

现代AI科学之父本吉奥

现代AI科学之父本吉奥

加州大学伯克利分校计算机科学教授斯图尔特·拉塞尔(Stuart Russell)指出,AI的工作方式意味着,与其他强大技术相比,它更加难以被完全理解和控制。

过去六个月里,包括本吉奥在内的一些知名研究人员已经将他们所认为的“超级智能”AI可能出现的时间从几十年后提前到了仅仅几年后。目前,这些担忧在硅谷、媒体界和华盛顿引发反响。政客们把这些威胁列为政府需要通过立法的原因之一。

参议院司法委员会小组委员会主席理查德·布卢门撒尔(Richard Blumenthal)主持了此次听证会。他表示,人类已经证明自己有能力发明当时令人难以置信的新技术。他把AI比作美国研制核武器的“曼哈顿计划”或美国宇航局的载人登月计划。

“我们已经做到了人们以前认为不可思议的事情,”他在听证会上说,“我们知道如何干大事。”

司法委员会小组委员会主席布卢门撒尔

司法委员会小组委员会主席布卢门撒尔

不过,对于周二听证会上概述的超级智能AI到来的激进时间表,并不是所有研究人员都认同。质疑者指出,炒作AI的潜力可能有助于企业兜售这项技术。其他知名AI领袖表示,那些讨论AI接管世界等生存威胁的人,是在夸大这项技术的能力,不必要地散播恐惧。

巨头垄断

在此次听证会上,一些参议员还提出了未来可能会出现的反垄断担忧。密苏里州共和党参议员乔希·霍利(Josh Hawley)表示,其中一个风险是微软和谷歌等大型科技公司对AI的垄断。多年来,霍利一直是大型科技公司的严厉批评者,他利用此次听证会的机会辩称,这些技术背后的公司本身就是一种风险。

“我相信垄断会有利于企业,我对此毫不怀疑,”霍利表示,“但我不太确信的是,人们是否会因此受到伤害。”

新监管机构

加州大学伯克利分校计算机科学教授斯拉塞尔认为,有必要成立一个专门聚焦AI的新监管机构。他预测,AI最终将彻底改变经济,为GDP的增长做出巨大贡献,因此需要健全和专门的监管。

Anthropic CEO阿莫代伊则表示,他对于是否成立一个新的机构,或者是否利用美国联邦贸易委员会(FTC)等现有监管机构来监管AI持“不可知论”态度,但他表示,必须为AI公司建立标准测试,以检验这些公司的技术来识别潜在危害。

“从监管角度而言,在我们确定并制定相关程序之前,我们都是在瞎猜,”阿莫代伊表示,“如果我们没有适当的东西来限制AI系统,我们的日子就不会好过。”

与本吉奥、拉塞尔不同的是,阿莫代伊经营着一家正在推动AI技术向前发展的公司Anthropic。该公司的员工都是前谷歌和OpenAI的研究人员,试图将自己定位为比大型科技公司的技术考虑更周到、更谨慎的替代品。而且,Anthropic从谷歌那里获得了大约3亿美元的投资,并依靠谷歌的数据中心来运行其AI模型。

他还呼吁为AI研究提供更多联邦资金,以学习如何降低AI带来的一系列风险。阿莫代伊预测,在未来两到三年内,恶意分子可能会利用AI来帮助开发生化武器,绕过旨在阻止人们开发此类武器的严格行业控制。“我担心我们能否及时做到这一点,但我们必须尝试。”他表示。凤凰网科技《AI前哨》对此将持续关注。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。