第三十七章 逻辑锁 (1 / 3)

阿西莫夫提出的“机器人三定律”实际上是一种“逻辑锁”。

也就是通过限制一定的条件从而更好地掌控人工智能的行为。

人类同样也是遵循着“逻辑”的指引,才能做出符合“常理”的行为和话语。

比如,从开车这一行为来看,开车的逻辑一般是点火,松手刹,踩离合,挂档。

但是你做错了,像是没有点火,你做了其它的行为,那么车还是不会发动。

再比如说行驶过程中,所有人遵守交通规则的逻辑,那么什么事都不会发生,但是不遵守交规,在马路上以S型曲线行驶,那么出车祸是很常见的事。

要么遵守逻辑准则,要么不遵守逻辑。

然而不遵守逻辑最好的结果就是发不动车,最差的结果就是车毁人亡。

这就是“逻辑锁”。

首先,我们知道计算机系统的最重要的一点就是“语言”,通过各种计算机语言,计算机的系统才能得以运行。

“语言”则是“逻辑”的产物,假如我们在利用“语言”给机器人的程序编写的时候添加了“机器人三定律”,这就代表我们给这个机器人上了一把逻辑锁。

当然,以上这些内容并非来自学界,而是林禹自己的想法,因为学界也没有对“机器人伦理学”下过定义。

在看到【强人工智能逻辑锁】的时候,他就想到了这些。

人工智能在早期的研究中,基本划分成了三个派别:连接主义、符号主义以及行为主义,三个流派各有侧重。

连接主义是以研究生物神经系统的仿生学为主,目前以深度神经网络为代表。也就是林禹从系统处获得的【神经拟合电路】这一方面。

符号主义是以研究数理逻辑为主,目前以聊天机器人为代表。

而行为主义则是以研究行为控制为主,目前的代表是日本的阿西莫、米国的大狗等。

三个学派所代表的是三个研究视角,它们之间本是相互衔接的关系,并不是对立关系,只有相互融合、合而为一时才能真正看清楚人类智能的全貌,否则就是有缺陷的认知。

这三个流派都面临这一个同样的问题,人工智能的发展方向是人类,他们研究的问题,也是人类的问题。

我们给人工智能上了一把“逻辑锁”,也就是说人工智能将会面临和人类一样的“道德困境”。

也就是“电车难题”,不光人类会陷入道德抉择的困境,人类的造物也会因为人类的枷锁而陷入困境。

根据人工智能“奇点”论,人工智能终会在理性和感性方面超过人类,但对人工智能的安全问题,人类又历来有“弗兰肯斯坦情结”,一般人类在心理上无法接受与非生物的机器产生共情。

上一章目录下一页