页面载入中...

德政府与美国“唱反调”: 中国无人机没有风险

  随着硬件与软件的进步,我们将面对一个古老的问题。当一个人形物带着善解人意的表情 ,温暖的声音,有智慧、有见识的举止出现在你面前,而你知道这个造物就是在北京附近的一座工厂中生产出来的时候,这究竟意味着什么呢?你的新朋友真的和你一样有意识吗?还是说,那只是他的设计带给人的错觉?他真的有自我,有悲喜,会怀恋过去,期待未来吗?这个问题有一个很粗浅的应对方法。伟大的计算机科学家艾伦·图灵在1930年代 认真思考过机器智慧的问题,我们不妨采纳他提出的理念:如果你根本没法判定一台机器是否有意识,那你不妨就假定他有意识。毕竟,我们所有人类都必须假定彼此有意识,可我们从来得不到这一点的最终证明。还有一个方法可以应对机器意识的难题——但我想把这一点留到最后。

  归根结底,思维所依附的人脑是由物质构成的。而物质是由你的大脑和人造人的“大脑”所共享的。近100年来,理论物理学家一直在告诉我们,物质比常识所以为的要奇怪的多。当我们最终发展到能够接受生物大脑相对于无机物大脑并不享有任何特殊地位或特权时,我们立刻就会面对一系列有趣的问题。我们应该授予人造人以公民权和公民义务吗?买卖或拥有这样一个造物是否是不道德的,就像过去买卖或拥有奴隶是不道德的一样?摧毁这样一个造物是否构成谋杀?他们会不会变得比我们更聪明,抢走我们的工作?在我们今日的工厂里,聪明但没有思维的机器已经开始替代工人了。下一个也许就轮到医生和律师了。接下来就是那个终极问题:人造人会征服我们,甚至是取代我们吗?

  这些正是科幻小说多年来一直在探索的问题。现在,这些问题终于到了需要回答的时刻了。未来已然降临。我们可以赋予一台计算机怎样的道德准则呢?自主,自动驾驶车辆的生产商们已经开始面对这件事了。你的新车应该忠于谁呢?一个孩子突然蹿上马路,正好蹿入了你的行驶路线。如果你猛打方向盘,一头撞上一辆迎面驶来的大货车,你就可以挽救孩子的生命。这个选择必须在须臾之间做出。大脑运转迟缓的人类不太擅长快速厘清这类问题。你新买的自动驾驶汽车可以遵照编定的程序,将你的生命安全置于其他所有人的生命安全之上。或者,它也可以奉利他主义和社会公益之名,准备好了牺牲你的生命。这是一个我们在设计汽车自动驾驶软件时不得不面对的道德选择。

  张重蛟(江苏省无锡市梁溪区纪委监委工作人员):我们在审讯李振华的时候,发现一些医院信息系统的医生,给他提供过统方数据。

  [解说词]统方,是医院对医生处方用药信息量的统计。医药代表千方百计想要获取统方数据,目的是准确地对医生进行公关,实施贿赂。

  段华丰(江苏省无锡市梁溪区纪委监委工作人员):哪个医生给我开了多少药、开了多少盒,在这个统方数据中都能够体现出来。

  [纪实]HIS系统是Hospital Information System,就是医院信息管理系统,基本上所有的医院里面所有的功能,就是基础的功能都在这个系统里面可以实现。

‹‹  123  4    ››  显示全文
admin
德政府与美国“唱反调”: 中国无人机没有风险

发表评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。