所有末世题材的小说、电影、游戏里面,“救人”衍生出来的各种后续,尤其是救了不该救的人后续被残忍捅刀出卖的剧情都快让人产生ptsd了。
所以她询问的这个问题比较关键,也确实是她有过犹豫并且完全不知道该怎么操作的。
“你是独立的个体,自我选择并坚持认知是你的权利。”
小机器人又晃了晃调酒器,即便是电子机械音都能听出几分活泼来:“你可以选择救任何人,可以选择不救任何人……即便某个人类做过无数善事,你不想救就可以不救。某个人类十恶不赦,你想救就可以救。”
“你可以费尽心思花费大量资源去救某位70岁的老奶奶,同样也可以舍弃一整辆车被困的小孩——以上这些都是基于‘人类’对于道德要求以及优先序列为你举的例子。”
“毕竟对于可爱的小机器人来说,善人恶人、老人小孩之类的分等分类没有什么意义。”
云栖栀当然不会以人类的标准去要求机器人,所以表情也没变化,只是平稳表达自己的心情:“你说的没错,但人……怎么说呢,我从福利院一路考到蓝都科技,都不知道听到过多少阴阳怪气,被说过多少次酸话嘲讽,受到过几次明里暗里的排挤。我都敢直接说自己挺坚强的了,但……在这种事情上,我想我永远都没有办法做最好最合适的决定。”
小机器人看着云栖栀,显示屏上的眼睛一眨一眨的:“那亲爱的小栀子,你是想分级救、全都救、还是全都不救?”
“要是事情能这么简单就好了。”
云栖栀十分坦诚:“就是因为以后恐怕不救也纠结,救了也纠结,左右为难才会这么犹豫。并且我当然是只想救好人和一般人,不想救大坏人。可我又分辨不出来。”
“而且现实是……”
云栖栀稍微一顿后继续:“即便我真的有那本事只救好人和一般人,也不代表他们就真的能一直替我保守秘密或者不会卖我。毕竟……这么说吧,假如说我救了一个好人,好人女儿被坏人劫持了,要求他背刺我,不然就撕票,你觉得这个好人会不会做?”
小机器人眨了眨眼。
云栖栀也没想着让机器人去解答人伦问题,她心中早有答案:“结论是不管这个好人选择了哪一种,我们之间原本友好和谐的关系都会全然破裂。他一看到我估计就会心生痛苦,长久下来就有可能是芥蒂。我一看到他在感动的同时,也绝不会再把他当做亲信了,甚至会一边补偿一边防备。”
“因为人就是这样,总是同时具备两面性。”
“感性的人对我来说完全不可信。毕竟那么多的电影电视剧足以证明正常人永远没法预料一个满脑子只装着‘情’的人能搞出什么事来。”
“而越理智的人越识时务、越多疑、越不会随便站队。他们通常情况下只会中性或者中偏好。”
“理智+坏就是大恶人。理智+好……这样的人实在是太少了、少到几乎可以忽略不计。”
“一般就是理智+中立。这样的人会将一切事物尽皆排出性价比,就像是你说的一车小孩和70岁老人。在真的无法兼顾后,到时候一旦被排到下方就完球,理智中立还会以十分坚决十分冷静十分顾全大局的态度卖人,然后等到人都挂了之后再满心满眼痛苦。”
云栖栀耸了耸肩:“到那时候老人骨灰都冷了,再怎么‘痛苦’还有毛用。甚至都没法说清楚这做的到底是好还是坏——毕竟对大局来讲是好,对老人绝对算坏。”
“以己及人,我虽然完全心甘情愿为一车小孩主动牺牲,但绝不心甘情愿‘被’牺牲。虽然都是牺牲,但感受是截然不同的。而如果能好好活着,谁又会想死呢。”
小机器人眨了眨眼。
云栖栀突然反应过来:“我话太多,也说的太没意义了吧。”
“并没有。”小机器人爪爪晃了晃:“我只是觉得很新奇。这还是我第一次听到类似的言论。”
云栖栀便笑了起来:“其实我说的完全不客观甚至非常主观啦!如果人真的能这么简单就分类了那还好些呢。人嘛,本就是跟大自然一样神奇、捉摸不透并且完全没法总结的物种啊。”
小机器人一边非常认同的点头,一边显示屏上浮出微笑的表情来。
云栖栀原本只是普通讲话,但她其实长这么大就从来没有跟多少人聊过自己的心理和想法。所以面对这个能交谈的小机器人后,在自己都没意识到时就已经开始倾诉了,此时把一些话说出来后,哪怕确实跑了题,但心里还是宽快不少,像是移开了块大石。
所以即便问题并没有得到解答,云栖栀也挺高兴的。
小机器人却又晃了晃爪子:“亲爱的小栀子就是理智+中立。”
云栖栀稍有些意外,但还是坦然点头承认了,还有心情开玩笑:“没错。我说的就是我自己。所以说,不管是纯然好还是纯然坏,纯然感性或者纯然理性,其实都挺好,最起码不会折磨自己。就怕好不完全又坏t?不完全,想得太多能做的又太少,那才是找罪受呢。”
“我那个世界就有个‘电车难题’,在一番热议后,被吐槽人魔改了。大概意思就是说,正常路线甲轨道上有十个小孩,废弃乙轨道有一个小孩,电车开来,如果不变轨,那么电车就会驶上甲轨……那么这又跟你有什么关系呢?”
云栖栀笑起来:“后来这样的问题被不断延伸,成了甲轨有一百个小孩,乙轨上有位九十岁的偏瘫患者。其实都是在明晃晃诱导操作。”