08/01/05。 cathayan.org版权所有,保留一切权利。转载请保留此说明。谢绝商业转载。
“机器人三大法则”大家应该都了解,其中第一法则说:机器人不得伤害人类,也不得因不采取行动而使人类受到伤害。这里有个漏洞:人类是指单独的人呢还是指人类整体?会不会有一种可能可能对某些人有害,而对人类整体有益?机器人是否可以决定进行某项“对人类整体有益”的事业,从而暂时地忽视某些人类个体的感受?
在《基地》系列中,阿西莫夫让机器人做出了尝试,也就是说第一个产生这个疑问的机器人做出了尝试,它试着从整体上关心人类,做出它认为整体上有益的事情,但很不幸,这个尝试失败了,人同机器之间产生了矛盾,爆发了战争,最终人类放弃使用机器人。而机器人也学会它不能过多干涉人类,是好是坏还是让人自己选择吧。
在《基地前奏》中,仍然有一个明白这个道理的机器人看护着人类的帝国,它是帝国的首相,但是它明白这个道理,它尽量不过多干涉,除非迫不得已。我想这种情况下的人类是幸运的,他们的保护者不但不过多干涉,不认为自己能代表人类整体的利益,而且还要受到三大法则的约束。
在我们的真实世界中,却从未如此幸运。我们的神,不论是别人认可的还是自以为是的,都认为自己是全体人利益的最佳代表,并且他们还都不受什么法则的约束。
我想我现在可以明白为什么科幻小说总是关注社会,反倒其中的科学成分并不更重要,这是因为人类最不满意的从来都是他们所经历的社会制度,而不是其他。当他们有可能在幻想中重建世界时,他们最想重建或探讨其可能性的必然是社会,想像出超空间飞船不过是边角料罢了。
就我个人而言,我否认一切代表他人利益的可能,除非有他人理智的授权。我也不承认任何人有权让一部分人受苦,仅仅因为他们说这样对社会整体“有益”。我不承认什么人对社会整体利益有任何程度的把握。不论一个人的头脑多么糊涂,他的道路还是由他来选择,社会所应承担的任务,只是让他更有能力,更有机会来选择。
08/01/05 10:45:10,由
cathayan发表。目录:
阅读
9条评论
其实很多科幻小说也是非常崇尚英雄主义,崇尚人类整体的命运的。当人类种群面临灭顶之灾时,如果需要牺牲一部分人的生命,甚至一大部分人,可以换回人类文明的延续,当时的人们会怎么选择?谁可以活下去,要牺牲谁?
也许只有在这种极端的情况下才能够讨论人类整体,其它时候谈什么整体利益,大都是一小部分人的利益罢了。
http://zqyin.3322.org/blog yinzhangqi 于 08/01/05 13:21:06 发表.
1、“他人理智的授权”
这也是不可靠的。代议制就是典型的授权;
2、“我也不承认任何人有权让一部分人受苦,仅仅因为他们说这样对社会整体“有益””
这个“有权”的“权”是什么定义?“权力”这个词本身,我以为和“暴力”“力量”不可分割。现在许多暴力机构“无权”做的事,只是因为有其它力量在遏止它而已;
3、理想社会这个设想,本身就是危险的。因为人类的智力不可能设计出“理想社会”。宁可设计一个不理想,但是有学习能力,可以修订策略的社会;
chhhh 于 08/01/05 13:33:10 发表.
头脑糊涂的人在选择,头脑不糊涂的人也在选择,大家都在选择的时候,看不到的机制会制止人类整体受损的可能。
当然我探讨的基础是人的理性,如果人不是理性的,或者多数人都不理性,那就完全是另一码事。
而之所以会出现人类整体受损的可能,无非是因为认识还不够,选择不充分,被压制,后者是我们希望避免的。
授权机制也一样没有十全十美,一旦到了代议、多数人做决定这一步,就实际上排除了一部分人的选择得以实现的可能性,一样是选择的不充分。所以才有必要从各个方面进行限制,起码限制它执行的时间长度。
理想社会这个概念从来都是要导向专制和伤害的,人类也许有共同理想,也许没有,或者人类自己永远不可能掌握这个理想。我倒希望把理性和自由当成理想,这样就永远不会滑向此类危险。
http://blog.cathayan.org/member/1/category/6 cathayan 于 08/01/05 17:17:29 发表.
I am watching and will delete all spam.