Board logo

标题: [转帖] 如果电脑有了意识人类会毁灭么? [打印本页]

作者: tg3366    时间: 2010-11-6 20:19     标题: 如果电脑有了意识人类会毁灭么?

还记得《变形金刚》《黑客帝国》《星球大战》等好莱坞科幻电影吗?它们塑造了无数个脍炙人口的机器人形象,除了具备人类相似的外形以外,敏捷的思维及身手也令人叹为观止。人类在计算机科学和机器人技术方面取得了长足发展,这两个新型学科的成长速度令人印象深刻。摩尔定律是对科技发展速度之快的完美诠释。定律定始人之一的戈登•摩尔(Gordon Moore)于1965年观察到,一块直径为一英寸(2.54厘米)的硅片可容纳晶体数目每年便会增加一倍,这是一种对数增长模式。而计算机科学家通过长期观察对定律做出修正,在人们全力挖掘集成电路可容纳晶体管数目的同时,还致力于压缩晶体管尺寸直至纳米级。




在机器人技术方面,工程师们已经创造出多关节机器人。有些机器人具备可以获取周围环境信息的一系列传感器,并能控制这些关节从而越过行进途中的简单障碍。本田公司的阿西莫(ASIMO)机器人能够自如地上下台阶及行走。从制造业到军用领域的应用,机器人都发挥出重大作用。

虽然计算机和机器人比以往任何时候都更加先进,但它们仍然只是工具。即使在执行威胁人类安危或因缺少计算机辅助就无法完成的任务时能大显身手,机器人和计算机也永远无法意识到自身的存在,它们只会按照既定程序履行职责。

但是,如果有一天他们能够为自己着想,将会是怎样的情形?这通常是科幻电影和小说的题材。一旦机器具备了自我意识,将改变人与机器之间的动态平衡关系。难道未来真会如此?

无论计算机或者机器人能否具备意识,都不是我们想像的那般简单,很多人类意识未被世人所了解。虽然程序员和计算机科学家能够设计出模仿简单思维的程序,但给予机器意识所需要的复杂编码仍力所不及。

一部分原因归结于对意识的定义。美国加州大学河滨分校哲学教授艾瑞克•科维特茨戈贝尔(Eric Schwitzgebel)认为,意识的概念最好通过实例来说明,哪些感知属于意识范畴,哪些不属于这个范畴。科维特茨戈贝尔表示,切身感受也是一种意识形式。如果您认为电脑和机器人能够通过传感器感受——或者至少发现——感应物,我们就可以将其理解为感觉或知觉。但科维特茨戈贝尔还指出其它意识形式:内在言语,视觉表象、情感和梦境等,都是机器所不能体验到的人类基本感受。

哲学家们对意识的界定难以达成共识,意见最一致的莫过于,大多数哲学家都认为意识栖息于大脑内。但是,我们并未完全了解产生意识的机制。

如果没有这样的认识,将无法赋予机器意识。即使可以设计模拟思维的程序,也仅仅可能给机器识别能力及对应模式。最终,这些机器还是不能意识到“自我”存在,只是简单地对指令做出响应。

神经学家和计算机科学家设想创造一个可能产生意识的人工大脑模型,他们面临的问题可不小!因为人类迄今为止还没充分了解大脑的工作原理,“克隆”的人工大脑未必能产生真实意识。

尽管面临着挑战,世界各地仍有很多工程师和科学家投身于人工意识的研究。究竟能否达到这个目标,让我们拭目以待吧。不过,假设我们确实发现了赋予机器意识的方法,世界将会发生怎样的变化?




人工意识将引发严重的伦理道德问题。如果机器具有自我意识,是否会会对它们所处的社会地位做出消极反应?会抗议人类把它作为工具使用吗?会产生情感吗?




关于这个问题上存在许多争议。因为还没有谁制造出人工意识的机器,所以无法得知人工意识机器具有怎样的特征,也就无法下结论。但是如果机器获得自我反思的能力,可能要求人类重新考虑看待它们的方式。当机器具有一定程度的智慧和意识后,是否会要求人类授予它们合法权利?或者机器仍然是使用工具,它们继续认为自己是人类的奴役?

具有思考能力的机器是一些世界末日类型科幻电影的基本情节,像《黑客帝国》或《终结者》就呈现出一个机器征服人类的世界。这些构想源于自我递归改进的概念。

自我递归改进(Self-recursive improvement)指的是机器本身具有理论研究能力,能够自我检查,并找出改进自身设计的方法,之后稍做一下自我调整,或者制造全新的、改良版机器。每一代机器都要比上一代机器思维更敏捷,设计更先进。未来主义学者瑞•库兹威尔(Ray Kurzweil)认为,机器将善于改进自己的性能,不久的将来,人类将步入一个科技飞速发展的新时代。我们将不得不重新定义现实,因为新时代将与现在完全不同。库兹威尔称之为奇异世界。

在这个世界里,人类将会怎样呢?有些故事情节是,人类与机器握手联合。人工意识和真实意识共同开创一个全新的世界。但有些情节,机器认为人类没有存在的必要。最多,机器在继续研发更加先进科技的同时忽略人类的存在。最糟糕的情况是,机器出于自我保护意识或者报复心理而消灭人类。

这些情节可能都是毫无意义的——人类或许永远无法解开创建人工意识的奥秘。因为意识是生理学的根本,不能人为模拟。但是万一我们能弄清楚这一切是怎么回事呢?还对电脑更加友善一些吧。

作者: s-ripper    时间: 2010-11-7 12:38

意识就其本质而言,是自我认知的过程。心理学认为意识是高级别的心理活动的反应;而哲学对于自我认知始终有着各种各样的争论,自然对意识也就没有能够统一的认识和结论。

所以我们会认为许多小猫小狗不会有意识,因为它们看到镜子里的“自己”时,并没有清晰地认识到其实那个反映在镜子里的影像就是它自己。所以它们没有自我意识,即便它们本身都是有机生命体。

那么那些人类制造的,一大堆由晶体管电缆和续发器组成的“人工智能”能产生自我意识吗?好吧我们不做这个假设。我们只假设人工智能产生了由人类赋予的自我意识。如果这个假设真的存在,我想它们就会做出伤害人类的事情。自我意识的一个前提就是排他性,是以“我”为首先前提的,一旦“我”被危害,“我”就会出于保护“我”的需要作出反应。

人类有一个很奇怪的过程就是所谓的“危机感”。上世纪美国展开了声势浩大成绩斐然的太空探索之后,催生了一大批有影响的太空幻想作品。很有名的短篇科幻小说《Egg》就是其一。这部小说后来改变成很有影响力的科幻电影《异形》系列。而这一题材的作品也被称为地外生命焦虑症候群。意思是对于未知生命形式危害人类本身的过度思考与臆想。虽然,我们至今都没有证明地外生命哪怕最低等的地外生命确实存在。

至于这个过程本身的意义,虽然没有切实有效的积极意义——这种毫无由来的恐惧感和危机感。但至少可以活跃思维锻炼思想。单纯从这一点来说,也还是有好处的。
作者: sunelf    时间: 2010-11-7 12:56

人类总是害怕未知的或自己掌控不了的东西,然后把他们想的非常邪恶。我不明白为什么人工智能产生了自我意识就会以消灭人类为己任,我们不能做朋友吗?以有机的大脑去推断无机生命的行为真的有说服力吗?
作者: kvwo123    时间: 2010-11-7 14:15

计算机归结起来就是0或1的选择,只有突破0或1的AI束缚才能产生真正的人工智能
作者: bbscom    时间: 2010-11-7 15:41

等到电脑有了思维的时候,人类科技的发展已经到达很高的地步,到时候应该已经有了可以完美解决的方法。就像电力刚发明的时候一样不好控制,后来还不是为人类所用。
作者: qw13008992648    时间: 2010-11-7 16:19

机器电脑毕竞是人制造出来的产物,能造出它就能灭了它。
作者: 口香糖2    时间: 2010-11-7 18:28

楼主你听过共生这个词吗?即使产生了智能电脑,他们在一个时期内也离不开人类的帮助。到这个阶段,人类就会思考未来,说不定会找个办法生存在电脑之中,最后两者共生,世界和谐。(多么美好的前景。请原谅我的胡乱联想和盲目乐观)。
作者: huangjin1982    时间: 2010-11-14 17:03

楼上的,一楼已经做了回答,意识具有排他性,所以不同的文明,碳基和硅基生命是不可能共存的
作者: qiangbinqqqqq    时间: 2010-11-14 17:18

当人类创造出机器,就已经开始进行机器淘汰人类的过程,只是那时人类还沉醉在机器给人类的巨大力量和辉煌。只是电脑和机器人的出现,恐惧的人类才开始更多的考虑机器人的危险,但淘汰是不可避免的,因为人的欲望是这样的。人是宇宙中的物质,必须遵循宇宙的规定。
作者: lum0026    时间: 2010-11-14 17:22

既然人类已经有了这么多想法,就一定不会让这种事情发生,会在程序里面添加设定或者机器里面添加后门吧,安心吧
作者: 风芒    时间: 2010-11-14 17:30

《终结者》刚上映就引起过一轮热烈的讨论,人工智能有了自主意识,太难了吧!电脑能有人类特有的感情吗?
作者: wzgyh    时间: 2010-11-15 20:39

电脑有意识也是人的意识,一个国家的民族往往不是按基因来区分,而是文化,如果,机器人有人的文化,那也可以说是人的一种,是不是最后也要给他们人权呢?电脑比人脑强的地方是记忆和运算,如果把某种芯片植入人脑,是不是人也可以和电脑一样了,那可能就是生化人了,他们还算人吗?
作者: cybertiger    时间: 2010-11-16 09:06

电脑要有了生命,估计咱全完蛋了,每家来个显示器自爆,就够咱喝一壶的
作者: biplaorg    时间: 2010-11-16 11:53

任何物种竞争的内在原因是争夺食物和资源,我不明白咱们和他们有什么可争夺的起码也是共生关系吧,机器生命体生命几乎无限,吸收的是能量,我们人类要能量还不是为他们吗?但他们怕病毒入侵我们天然免疫,我们生命体脆弱,他们能保护我们,这是合理的共生关系,正在危险的生物外星人
作者: liandyu2004    时间: 2010-11-16 15:33

人类既然能够制造机器,就有毁灭机器的能力,如果未来机器真正产生了智能(像《机器人和我》这部电影),只要是正面的,人类是可以接受的并加以利用
作者: 40012345    时间: 2010-11-16 15:41

没有做不到,只有想不到,电脑有了意识,人类必将毁灭。
理由:
1、电脑与机械人一样,靠能源(核能、电力或其它能源)供应能量,与地球上现有生物有本质的区别,它们无法体会到现在生物生存所必须的环境。
2、过于理性而感性不足。
3、无人类特有的感情。
4、有防止人类将其关机或毁坏,由于有了意识,必将先消灭可能存在的“敌人”——也就是人类。
这就是理由。
作者: plp2012    时间: 2010-11-16 16:01

如果机器有了智慧,有了选择,也会像人类一样驱逐并消灭对自己有危险的一切来源
作者: 学坏    时间: 2010-11-16 20:14

哈哈,只要人类不给电脑装手脚,它也只是想想
作者: loverainy    时间: 2010-11-16 20:31

呵呵记得有个科学家曾经说过,计算机再先进,你及时拔掉电源就没事了,人类最大的敌人不是计算机,而是控制计算机的人类
作者: ahhbshy    时间: 2010-11-16 20:56

计算机归结起来就是0或1的选择,只有突破0或1的AI束缚才能产生真正的人工智能,目前还是不可能的。
作者: aajj895    时间: 2010-11-16 22:59

再高级的电脑也就是YES和NO的选择,绝不会像电影一样。如果有一天人类被YES和NO,真有可能。
作者: linxy0424    时间: 2010-11-16 23:03

假设是很吓人的。不用等到电脑有意识,人类可能就先灭亡了。
作者: sdvkcasfh1    时间: 2010-11-21 13:06

我觉得,就算电脑拥有了自我意识一般也不会去毁灭人类的,要么就是人类自己给其设定了这种程序,首先人类的攻击性其实是基于人类的基本生物性的欲望上面的,很难想象一个计算机会有怎么样的欲望,呵呵
作者: leon1792    时间: 2010-11-24 12:58

世间万物没有绝对,都是相对的,机器三法则貌似挺严谨,不过还有病毒呢。
作者: 底声叹息    时间: 2010-12-5 12:22

电影看多了吧!电脑不管怎么发展也只是电器!能取代人么
作者: ljyme2k1    时间: 2010-12-5 12:48

如果电脑有了人类的意识,那么在黑客帝国中的情景很可能出现了。毕竟在对抗方面,人类是不如机器的。
作者: 日月木各    时间: 2010-12-5 13:02

以前貌似看过一个片子就是机器人失控了 屠杀人类
作者: giovanni    时间: 2010-12-5 17:10

电脑如果真的有了意识那就太可怕了!毕竟我们人类才是地球上的主宰,让其他动物、植物,甚至之前没有生命的物件来支配甚至主宰地球就太可怕了!
作者: istick    时间: 2010-12-5 18:04

说不准呀,有这种可能性,它一旦有了独立思维能力,那对人类来说肯定是一种威胁。
作者: windows318    时间: 2010-12-5 18:56

电脑是不可能有意识的,楼主科幻片看多了.
作者: 无锡人    时间: 2010-12-5 19:10

这事情很纠结,电脑为人类所用,凡是有两面性,双刃剑,人类应该有所觉悟
作者: bhy1831    时间: 2010-12-6 03:00

我的看法是这是绝对有可能的,智能到达一定程度,产生自主意识并不是什么难事,例如再微小简单的昆虫,也有求生的欲望
作者: aiying99di    时间: 2010-12-6 18:55

电脑产生意识后会摧毁人类吗?我想应该不会,虽然电脑都是方程式的运算但是却没有人类的强烈征服感,而且对于人类的依赖还是有的。除非那个疯狂科学家不想让自己死亡把自己的意识给输进电脑里面了。(请原谅我看多了未来战士和七龙珠的人造人了)
作者: anitasji    时间: 2010-12-6 22:31

为啥不在他们的思维核心里面加机器人三定律呢?这样他们应该就不会杀人了
作者: blueskyers    时间: 2010-12-6 22:36

如果让人去想象一件未知的事情,大多数都会想最坏的情况想。其实这与人和人之间的嫉妒一样,看到周围比你优秀的人,就怕他挤掉你。
作者: stvotv    时间: 2010-12-8 10:54

科学技术一向是把双刃剑,关键并不是看剑本身怎么样,而是看剑拿在谁的手里!
作者: qunjia    时间: 2010-12-8 13:25

如果电脑有意识,那要看他的品质如何。
作者: liik    时间: 2010-12-8 19:28

楼主说的电脑有意识应该是指有了独立的思想。人之所以不一样就是因为每个人都有不一样的思想,如果电脑到了这一地步,人类应该还是会存活下去,因为电脑毕竟是人类发明创造的产物,在发明这一产物之明,有些人已经想到了这一点,如果楼主对此类科幻电影看的多的话,就会发现凌驾于电脑基本之上的三大法则。
作者: ydjroger    时间: 2010-12-8 22:06

说真的,这玩意不好说, 看看老美电影中的想象吧,最直接的就是“终结者”电脑有思想后会怎么样,还有机械公敌等
作者: 如花小强    时间: 2010-12-8 23:03

何谓意识?意识是如何产生的?电脑可能有意识吗?
这些问题解决了才能回答这个问题。
个人以为电脑不会有意识,但人类迟早会毁灭~
作者: mnmnbvc    时间: 2010-12-9 00:44

高智能的生命对低智能的生命有完全的支配权,人类是猴子进化过来的,可是现在的人类却在大量的捕杀甚至食用猴子,电脑虽然是人类研究出来的,可是如意有一天他的智能超过了人类,人类对于他来说就和猴子没有区别了。
作者: 吃妖怪的猫    时间: 2010-12-9 01:19

艺术作品里面的那些AI造反归根就低只不过是人类有强烈的被迫害意识而已= =你以为跟光环那里面的星盟一样是极端的宗教社会嘛~妥协和让步都不会╮(╯▽╰)╭




欢迎光临 SiS001! Board - [第一会所 关闭注册] (http://68.168.16.151/bbs/) Powered by Discuz! 7.2