Root Nation消息资讯资讯谷歌前负责人将人工智能比作核武器

谷歌前负责人将人工智能比作核武器

-

谷歌前首席执行官埃里克施密特将人工智能 (AI) 比作核武器,并呼吁建立一种类似于相互确保毁灭的威慑机制,防止世界上最强大的国家相互毁灭。

谷歌前负责人将人工智能比作核武器

施密特于 22 月 日在阿斯彭安全论坛上讨论国家安全和人工智能时谈到了人工智能的危险。 当被问及道德在技术中的价值时,施密特解释说,在谷歌成立初期,他自己对信息的力量还很天真。 然后他呼吁技术更好地符合他们所服务的人们的伦理道德,并将人工智能与核武器进行了奇怪的比较。

施密特谈到不久的将来,中美两国需要就人工智能达成协议。 “在 50 世纪 60 年代和 年代,我们最终创造了一个世界,在这个世界里,核试验有一个‘毫无意外’的规则,结果,它们被禁止了,”施密特说。 “这是信任或缺乏信任平衡的一个例子,这是‘不出意外’的规则。” 我非常担心美国认为中国腐败或共产主义或其他什么,而中国认为美国是失败者......会让人们说,“天哪,他们在搞事情,”然后一些难以理解的事情将开始......

人工智能和机器学习是一项引人入胜但经常被误解的技术。 他基本上没有人们想象的那么聪明。 它可以创造杰作级的艺术作品,可以在星际争霸II中打败人,还可以为用户拨打最基本的电话。 然而,试图让它执行更困难的任务,例如在大城市中驾驶汽车,并没有成功。

施密特谈到了一个假想的不久的将来,中美两国都将关注安全问题,这将迫使他们签订一种遏制人工智能的条约。 他回忆起 1950 年代和 60 年代,当时外交围绕地球上最致命的武器制定了一系列控制措施。 但是,经过十年的核爆炸,最重要的是广岛和长崎的毁灭,和平才在《禁止核试验条约》、SALT II 和其他具有里程碑意义的立法缔结之前到来。

二战末期被美国摧毁的日本两座城市夺去了数万人的生命,向世人证明了核武器的永恒恐怖。 然后俄罗斯和中国政府争先恐后地购买武器。 我们忍受这些武器被使用的可能性的方式就是所谓的相互确保毁灭 (MAD),这是一种威慑理论,确保如果一个国家发射核武器,其他任何国家都有可能发射核武器。 我们不使用地球上最具破坏性的武器,因为它有可能至少摧毁世界各地的文明。

尽管 Schmidt 的评论五花八门,但我们不希望也不需要 AI 的 MAD。 首先,与核武器相比,人工智能尚未证明其破坏力。 但是当权者害怕这项新技术,而且通常是出于错误的原因。 人们甚至提议将核武器的控制权交给人工智能,认为它比人类更能仲裁核武器的使用。

谷歌前负责人将人工智能比作核武器

人工智能的问题不在于它具有核武器的潜在破坏力。 重点是人工智能的好坏取决于开发它的人,它承载着它的创造者的价值观。 AI 遭受经典的“垃圾输入,垃圾输出”问题:种族主义算法创造种族主义机器人,所有 AI 都带有其创造者的偏见。

DeepMind 公司的 CEO 戴米斯·哈萨比斯 (Demis Hassabis) 似乎比施密特更明白这一点。 在 Lex Friedman 播客的 月采访中,Friedman 问哈萨比斯如何控制像 AI 这样强大的技术,以及哈萨比斯本人如何避免被这种力量腐蚀。

卡萨比斯的回答是关于他自己的。 “人工智能这个想法太大了,”他说。 “谁创造了 AI,他们来自什么文化,他们的价值观是什么,这很重要。 人工智能系统会自己学习……但系统会保留系统作者的文化和价值观。”

人工智能是其作者的反映。 它不能用 1,2 兆吨的爆炸将一座城市夷为平地。 除非有人教他这个。

你可以帮助乌克兰对抗俄罗斯侵略者。 最好的方法是通过以下方式向乌克兰武装部队捐款 拯救生命 或通过官方页面 NBU.

另请阅读:

Dzherelo
注册
通知关于
客人

0 评论
嵌入式评论
查看所有评论