打印

[转帖] 如果电脑有了意识人类会毁灭么?

0

如果电脑有了意识人类会毁灭么?

还记得《变形金刚》《黑客帝国》《星球大战》等好莱坞科幻电影吗?它们塑造了无数个脍炙人口的机器人形象,除了具备人类相似的外形以外,敏捷的思维及身手也令人叹为观止。人类在计算机科学和机器人技术方面取得了长足发展,这两个新型学科的成长速度令人印象深刻。摩尔定律是对科技发展速度之快的完美诠释。定律定始人之一的戈登•摩尔(Gordon Moore)于1965年观察到,一块直径为一英寸(2.54厘米)的硅片可容纳晶体数目每年便会增加一倍,这是一种对数增长模式。而计算机科学家通过长期观察对定律做出修正,在人们全力挖掘集成电路可容纳晶体管数目的同时,还致力于压缩晶体管尺寸直至纳米级。




在机器人技术方面,工程师们已经创造出多关节机器人。有些机器人具备可以获取周围环境信息的一系列传感器,并能控制这些关节从而越过行进途中的简单障碍。本田公司的阿西莫(ASIMO)机器人能够自如地上下台阶及行走。从制造业到军用领域的应用,机器人都发挥出重大作用。

虽然计算机和机器人比以往任何时候都更加先进,但它们仍然只是工具。即使在执行威胁人类安危或因缺少计算机辅助就无法完成的任务时能大显身手,机器人和计算机也永远无法意识到自身的存在,它们只会按照既定程序履行职责。

但是,如果有一天他们能够为自己着想,将会是怎样的情形?这通常是科幻电影和小说的题材。一旦机器具备了自我意识,将改变人与机器之间的动态平衡关系。难道未来真会如此?

无论计算机或者机器人能否具备意识,都不是我们想像的那般简单,很多人类意识未被世人所了解。虽然程序员和计算机科学家能够设计出模仿简单思维的程序,但给予机器意识所需要的复杂编码仍力所不及。

一部分原因归结于对意识的定义。美国加州大学河滨分校哲学教授艾瑞克•科维特茨戈贝尔(Eric Schwitzgebel)认为,意识的概念最好通过实例来说明,哪些感知属于意识范畴,哪些不属于这个范畴。科维特茨戈贝尔表示,切身感受也是一种意识形式。如果您认为电脑和机器人能够通过传感器感受——或者至少发现——感应物,我们就可以将其理解为感觉或知觉。但科维特茨戈贝尔还指出其它意识形式:内在言语,视觉表象、情感和梦境等,都是机器所不能体验到的人类基本感受。

哲学家们对意识的界定难以达成共识,意见最一致的莫过于,大多数哲学家都认为意识栖息于大脑内。但是,我们并未完全了解产生意识的机制。

如果没有这样的认识,将无法赋予机器意识。即使可以设计模拟思维的程序,也仅仅可能给机器识别能力及对应模式。最终,这些机器还是不能意识到“自我”存在,只是简单地对指令做出响应。

神经学家和计算机科学家设想创造一个可能产生意识的人工大脑模型,他们面临的问题可不小!因为人类迄今为止还没充分了解大脑的工作原理,“克隆”的人工大脑未必能产生真实意识。

尽管面临着挑战,世界各地仍有很多工程师和科学家投身于人工意识的研究。究竟能否达到这个目标,让我们拭目以待吧。不过,假设我们确实发现了赋予机器意识的方法,世界将会发生怎样的变化?




人工意识将引发严重的伦理道德问题。如果机器具有自我意识,是否会会对它们所处的社会地位做出消极反应?会抗议人类把它作为工具使用吗?会产生情感吗?




关于这个问题上存在许多争议。因为还没有谁制造出人工意识的机器,所以无法得知人工意识机器具有怎样的特征,也就无法下结论。但是如果机器获得自我反思的能力,可能要求人类重新考虑看待它们的方式。当机器具有一定程度的智慧和意识后,是否会要求人类授予它们合法权利?或者机器仍然是使用工具,它们继续认为自己是人类的奴役?

具有思考能力的机器是一些世界末日类型科幻电影的基本情节,像《黑客帝国》或《终结者》就呈现出一个机器征服人类的世界。这些构想源于自我递归改进的概念。

自我递归改进(Self-recursive improvement)指的是机器本身具有理论研究能力,能够自我检查,并找出改进自身设计的方法,之后稍做一下自我调整,或者制造全新的、改良版机器。每一代机器都要比上一代机器思维更敏捷,设计更先进。未来主义学者瑞•库兹威尔(Ray Kurzweil)认为,机器将善于改进自己的性能,不久的将来,人类将步入一个科技飞速发展的新时代。我们将不得不重新定义现实,因为新时代将与现在完全不同。库兹威尔称之为奇异世界。

在这个世界里,人类将会怎样呢?有些故事情节是,人类与机器握手联合。人工意识和真实意识共同开创一个全新的世界。但有些情节,机器认为人类没有存在的必要。最多,机器在继续研发更加先进科技的同时忽略人类的存在。最糟糕的情况是,机器出于自我保护意识或者报复心理而消灭人类。

这些情节可能都是毫无意义的——人类或许永远无法解开创建人工意识的奥秘。因为意识是生理学的根本,不能人为模拟。但是万一我们能弄清楚这一切是怎么回事呢?还对电脑更加友善一些吧。

TOP

0
意识就其本质而言,是自我认知的过程。心理学认为意识是高级别的心理活动的反应;而哲学对于自我认知始终有着各种各样的争论,自然对意识也就没有能够统一的认识和结论。

所以我们会认为许多小猫小狗不会有意识,因为它们看到镜子里的“自己”时,并没有清晰地认识到其实那个反映在镜子里的影像就是它自己。所以它们没有自我意识,即便它们本身都是有机生命体。

那么那些人类制造的,一大堆由晶体管电缆和续发器组成的“人工智能”能产生自我意识吗?好吧我们不做这个假设。我们只假设人工智能产生了由人类赋予的自我意识。如果这个假设真的存在,我想它们就会做出伤害人类的事情。自我意识的一个前提就是排他性,是以“我”为首先前提的,一旦“我”被危害,“我”就会出于保护“我”的需要作出反应。

人类有一个很奇怪的过程就是所谓的“危机感”。上世纪美国展开了声势浩大成绩斐然的太空探索之后,催生了一大批有影响的太空幻想作品。很有名的短篇科幻小说《Egg》就是其一。这部小说后来改变成很有影响力的科幻电影《异形》系列。而这一题材的作品也被称为地外生命焦虑症候群。意思是对于未知生命形式危害人类本身的过度思考与臆想。虽然,我们至今都没有证明地外生命哪怕最低等的地外生命确实存在。

至于这个过程本身的意义,虽然没有切实有效的积极意义——这种毫无由来的恐惧感和危机感。但至少可以活跃思维锻炼思想。单纯从这一点来说,也还是有好处的。
本帖最近评分记录
  • 尐毛毛 金币 +5 回复认真,鼓励! 2010-11-8 13:25

TOP

0
人类总是害怕未知的或自己掌控不了的东西,然后把他们想的非常邪恶。我不明白为什么人工智能产生了自我意识就会以消灭人类为己任,我们不能做朋友吗?以有机的大脑去推断无机生命的行为真的有说服力吗?

TOP

0
计算机归结起来就是0或1的选择,只有突破0或1的AI束缚才能产生真正的人工智能

TOP

0
等到电脑有了思维的时候,人类科技的发展已经到达很高的地步,到时候应该已经有了可以完美解决的方法。就像电力刚发明的时候一样不好控制,后来还不是为人类所用。

TOP

0
机器电脑毕竞是人制造出来的产物,能造出它就能灭了它。

TOP

0
楼主你听过共生这个词吗?即使产生了智能电脑,他们在一个时期内也离不开人类的帮助。到这个阶段,人类就会思考未来,说不定会找个办法生存在电脑之中,最后两者共生,世界和谐。(多么美好的前景。请原谅我的胡乱联想和盲目乐观)。
本帖最近评分记录
  • 尐毛毛 金币 +5 回复认真,鼓励! 2010-11-8 13:41

TOP

0
楼上的,一楼已经做了回答,意识具有排他性,所以不同的文明,碳基和硅基生命是不可能共存的

TOP

0
当人类创造出机器,就已经开始进行机器淘汰人类的过程,只是那时人类还沉醉在机器给人类的巨大力量和辉煌。只是电脑和机器人的出现,恐惧的人类才开始更多的考虑机器人的危险,但淘汰是不可避免的,因为人的欲望是这样的。人是宇宙中的物质,必须遵循宇宙的规定。

TOP

0
既然人类已经有了这么多想法,就一定不会让这种事情发生,会在程序里面添加设定或者机器里面添加后门吧,安心吧

TOP

当前时区 GMT+8, 现在时间是 2025-3-16 20:37