第三十七章 逻辑锁(1/2)
阿西莫夫提出的“机器人三定律”实际上是一种“逻辑锁”。
也就是通过限制一定的条件从而更好地掌控人工智能的行为。
人类同样也是遵循着“逻辑”的指引,才能做出符合“常理”的行为和话语。
比如,从开车这一行为来看,开车的逻辑一般是点火,松手刹,踩离合,挂档。
但是你做错了,像是没有点火,你做了其它的行为,那么车还是不会发动。
再比如说行驶过程中,所有人遵守交通规则的逻辑,那么什么事都不会发生,但是不遵守交规,在马路上以s型曲线行驶,那么出车祸是很常见的事。
要么遵守逻辑准则,要么不遵守逻辑。
然而不遵守逻辑最好的结果就是发不动车,最差的结果就是车毁人亡。
这就是“逻辑锁”。
首先,我们知道计算机系统的最重要的一点就是“语言”,通过各种计算机语言,计算机的系统才能得以运行。
“语言”则是“逻辑”的产物,假如我们在利用“语言”给机器人的程序编写的时候添加了“机器人三定律”,这就代表我们给这个机器人上了一把逻辑锁。
当然,以上这些内容并非来自学界,而是林禹自己的想法,因为学界也没有对“机器人伦理学”下过定义。
在看到强人工智能逻辑锁的时候,他就想到了这些。
人工智能在早期的研究中,基本划分成了三个派别:连接主义、符号主义以及行为主义,三个流派各有侧重。
连接主义是以研究生物神经系统的仿生学为主,目前以深度神经网络为代表。也就是林禹从系统处获得的神经拟合电路这一方面。
符号主义是以研究数理逻辑为主,目前以聊天机器人为代表。
而行为主义则是以研究行为控制为主,目前的代表是日本的阿西莫、米国的大狗等。
三个学派所代表的是三个研究视角,它们之间本是相互衔接的关系,并不是对立关系,只有相互融合、合而为一时才能真正看清楚人类智能的全貌,否则就是有缺陷的认知。
这三个流派都面临这一个同样的问题,人工智能的发展方向是人类,他们研究的问题,也是人类的问题。
我们给人工智能上了一把“逻辑锁”,也就是说人工智能将会面临和人类一样的“道德困境”。
也就是“电车难题”,不光人类会陷入道德抉择的困境,人类的造物也会因为人类的枷锁而陷入困境。
根据人工智能“奇点”论,人工智能终会在理性和感性方面超过人类,但对人工智能的安全问题,人类又历来有“弗兰肯斯坦情结”,一般人类在心理上无法接受与非生物的机器产生共情。
人无法和非人的机器人共情。
道德困境、人和人工智能无法共情,这两个困难会将人和人造智能推向对立面。
这是人类在思考自身之后所做出的合理演绎。
因此,预防人工智能背叛就成为了人类不得不思考的一个问题,而目前最适当的解决办法有三个:
一、将人工智能永远控制在低级阶段。
显然,这是一个可取但不会有人支持的办法。
二、预防。
这个方法简单,但具有不可预见性,风险较大。
三、逻辑锁。
目前来说最为稳妥的办法,但是也具有一定的风险。
当然,这一切都是建立在“人工智能叛变”的推论之下,人类不得不防而已。
要往好处想,人类是有能力将这一切控制住的,不会发生类似《黑客帝国》那样的情况发生。
本章未完,点击下一页继续阅读。