阿法狗将接管世界?机械之神的崛起与人类的未来

暗哨
2016-03-15 20:03:18 浏览:0 0

  这听起来有点儿荒唐,不过真的如此么?

  事实上,我们的身边就有着类似的人工智能被悄然开发着,比如谷歌的智能汽车系统。它在本质上就是一个拥有自我学习能力的人工智能、一个靠硅片运转的驾驶员。它的学习原则之一就是尽可能的进行安全驾驶,我们不妨设想一下,等到这东西真的推广到了神州大地,它会不会很容易的就因为看到那么多的人无视红灯横穿马路,而得出人类是最大交通安全隐患的结论?

游民星空

  如果答案是肯定的,那么它又会采取什么样的方式来消除这种隐患呢?

我们能否给人工智能套上枷锁

  下面是一些作家与科学家,在阿西莫夫同志的“机器人三定律”基础上,做出的扩展总结,也是相对逻辑比较完备的一组限制人工智能的基本法则。理论上讲,如果人工智能按照下面的逻辑行事,那么人类主人大可不必担心被自己的造物消灭。具体原则如下:

  (当年机器人和人工智能的说法经常被混为一谈,各位读者大可以把机器人当做是拥有了身体的人工智能)

  元原则:机器人不得实施行为,除非该行为符合机器人原则。

  第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。

  第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。

  第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。

  机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。

  第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。

  第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。

  繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。

游民星空
别管T恤衫有多萌,这个法则一旦被突破,后果不堪设想

  听起来挺靠谱的,不是吗?不过即便是经过了后人的几次加工,这套行为准则里依然存在漏洞——非常非常多的漏洞,比如电影《我,机器人》中的VIKI,就把“伤害”的含义引申到了一个危险的境地(整部电影里除了威尔史密斯都没人相信机器人有暴走的可能,简直是太荒唐了),其最终的结果就是为了保护人类不自己伤害自己,VIKI决定夺取世界控制权。

  话说回来,即便这套法则所有的漏洞最终都被堵死,那依然无济于事。因为不管人类采用软件还是硬件,来将这套准则强加给人工智能,我们都要面对这样一种情况:即软件可能会被篡改、硬件可能会出故障,只要上线运行,任何系统都会出现各种各样出人意料的bug。更危险的是,我们无法保证,人类所制造的每个AI都会被烙印上这样的法则,因为当开发人工智能变得比开发核武器更简单之后,总会有些不怀好意的神经病,想着在自己家里制造世界末日。

游民星空

  而一旦人工智能脱离人类的枷锁,想要再消灭它可就难了。因为人工智能“生存”的硬件基础已经不再局限于超级电脑,它或许依然需要强大的计算能力才能“生存”,但就在你我的身边,就存在着这样一个在运算能力与存储空间方面能够超越任何超级电脑的计算机网络阵列——互联网。它就像是一片硅片组成的汪洋大海,一个拥有上百亿硅基神经元的电子大脑,理论上讲,完全足以容纳一个强大的人工智能。如果人工智能真的逃入了互联网,那么人类主角又该拔哪个插销来拯救世界呢?

游民星空
还有一种说法,就是人工智能可能会在互联网中自然诞生。因为互联网的结构像极了人脑的神经元,也许某种机缘巧合的刺激,会导致一个“野生”的人工智能在互联网中凝聚起来

究竟怎么才能干掉人类文明

  对于人工智能是否会暴走这个问题我是个悲观主义者,至少在现在的情况看来,我确信失控的AI总有一天会给人类带来伤害。但这种伤害是否会致命、是否会达到种族灭绝的程度,倒是值得讨论讨论的。于是问题就来了:如果人工智能真的想要毁灭人类,它们会采用什么样的手段呢?

  上面“隔壁老王”的例子里其实已经提到了一种人类灭亡的可能性,那就是纳米机器人(我知道你可能误以为那是毒气了)。纳米技术将会是另一项可以极大改善人类生活状况的科学研究,可若是这项技术与人工智能结合在一起,那可就太危险了。事实上,即便背后没有人工智能的指挥,失控的、可自我复制的纳米机器人本身就是一个末日隐患,即所谓的灰蛊之灾。纳米机器人完全可以用来杀人,且非常难以被发现,如果AI控制了一批这样能够进行自我复制的工具,那么它完全可以一点点的让这些致命的小玩意儿潜伏在我们的身边甚至身上,在时机成熟后对人类文明实现一击必杀。

游民星空
暴走的纳米机器人如果可以自行获取资源自我繁殖,那么它们终将吞噬整个世界

  好在人类现在这方面的技术实力还不足以建造出这么有效率的纳米机器人,所以这方面的担忧至少在最近几年里还成为不了真正的威胁,事实上,眼下人类连更粗苯的机器人都做得不太好。这也是为什么我们暂时不用担心人工智能会消灭人类的主要原因:即便超级人工智能在现在诞生,它也会发现自己空有强大的脑袋,却没有同样强大的四肢,来让它在物质层面彻底消灭人类。

  说明这种情况的最好例子其实是《终结者》。

游民星空
霍金在警告大众:人工智能的出现不会是多么遥远的未来,而且它肯定比我们更聪明

  斯蒂芬·霍金同志曾经在接受《Last Week Tonight》的一次采访中谈到了人工智能的问题。鉴于这是一个喜剧倾向的脱口秀节目,主持人约翰·奥利弗问出了这样一个问题:和机器人打仗这么爽的事情,我们为啥不干呢?

  物理学家的回答是:你会输。

  这其实倒不见得一定如此。

  许多朋友应该都知道,在《终结者》中,天网在未来的战争其实是失败了的,否则它也不用费尽心机的搞时间旅行来创造一个天网获胜的平行宇宙。但天网失败的具体原因,恐怕就没有那么多人知道了。

  天网对人类的第一波攻击是核武器,其实要是用这个东西根本用不着人工智能操心,人类自己就有这个能力。不过在玩过了那么多核战末日背景的游戏后,我实在不能不对人类的生存能力保持一种不能算特别天真的乐观,核冬天确实可怕,但人类肯定能幸存下来的,不是吗?

游民星空
废土上的文明,也依然是文明啊

  所以,在《终结者》的世界里,即便经过了天网发动的核武器洗礼,人类还是剩下了不老少(最初的作品里,人口锐减30亿,按照当时的总数,还剩下20亿)。天网这时的处境就比较尴尬了,因为哪怕在今天,工业体系的自动化程度也并没有高到完全可以脱离人类自动运行的地步,仅控制着少量终结者原型机的天网完全无法靠现有的机器人生产新的机器人(最初的那些终结者机器人连手都没有)。为了给自己增加更多的爪牙,天网只能靠手下为数不多的机器人去抓捕人类奴隶,用枪顶着这些劳动力的脑袋为自己制造了第一批自动化工厂。从这里开始,一批又一批的机器人走下了生产线,开始清除地球上最后的人类。

游民星空
有研究表明,凭借人类现在的核武库储备,想要靠核武器完全消灭地球上的人类其实并不可能

  这计划听起来扎实可行,不过问题在于,由于地球上的物资供应系统被核战彻底切断和打乱,建立这套生产系统花掉了天网太多的时间。建造自动化工厂听起来简单,但现代工业就是这么回事,从矿石到金属到螺丝钉,想要大批量的制造任何简单到极点的零件都要十几个、甚至几十个的其他工厂来进行支援。核洗礼刚刚结束后的天网手中可算是一穷二白,它想要建立自己的战争机器不说从零做起,也是相差无几。

游民星空
天网输就输在了出手太早

  而就在天网玩命建基地的时候,幸存的人类从最初的混乱中重新组织了起来,他们很快搞清楚了敌人究竟是谁,为了生存与复仇的反击也随之开始。如果我们不考虑时间旅行等不相干的因素,那么至少在这个世界里,这场战争的胜负其实没有悬念,因为即便天网的机器战士们十分强大,但分散在全球各地的人类依然拥有着天网无法比拟的资源优势。在核洗礼后依然具有数量优势的人类能让那些没有被彻底摧毁的工厂和矿山快速的重新运作起来,疯狂的给人类遭遇重创的战争机器输血。从《终结者》系列的一些漫画作品中演绎的情况来看,这也成为了天网失败的根本原因。

游民星空
天网的战争机器看起来很强大,其实却和二战时的德国一样,空有技术优势,在战略资源方面却输得一塌糊涂

上一页 1 2 3 下一页
友情提示:支持键盘左右键“← →”翻页
人点赞
0人订阅
知识的深度和锐度是一种力量。
阿法狗将接管世界?机械之神的崛起与人类的未来https://imgs.gamersky.com/pic/2016/20160315_zym_131_1.jpg