第一章 一等不可思议 7.机器人

在未来30年中,有一天,无声无息地,我们将不再是地球上最聪明的事物。

——詹姆士·麦卡利尔(James Mcalear)

在根据艾萨克·阿西莫夫的小说改编的电影《机械公敌》(I,Robot)中,有史以来最先进的机器人系统在2035年启用了。它被称为VIKI(虚拟互动运动智能,Virtual Interactive Kinetic Intelligence),它的作用是完美地管理一座大城市的运转,一切事物,从地铁系统和输电网到数千家庭机器人都由VIKI控制。它的核心指令是不容更改的:为人类服务。

但有一天,V1KI提出了关键性的问题:人类最大的敌人是什么?VIKI通过数学运算作出结论,人类最大的敌人正是人类自己。人类必须被从他们污染环境、发动战争和毁灭这个星球的疯狂欲望中拯救出来。VIKI完成这一中心指令的唯一方法是夺取人类的控制权,并且创造一个机器的良性专政国家。为了保护自己,人类不得不被奴役。

《机械公敌》提出了这些问题:当计算机能力以天文速度发展,机器会有朝一日控制世界吗?机器人能不能变得足够先进,以至于有一天成为我们人类生存的终极威胁?

有些科学家说不会,因为人工智能的概念本身是愚蠢的。有大堆批评者齐声说,制造能够思考的机器是不可能的。“人类的大脑,”他们争辩道,“是大自然所创造过的最复杂的系统,至少在银河系的这个部分里是,任何以复制人类思维为目标的机器都是注定要失败的。”加利福尼亚大学伯克利分校的哲学家约翰·瑟尔(John Searle)和名声更为显赫的牛津大学物理学家罗杰·彭罗斯(Roger Penrose)相信机器在物理上是不可能进行人类那样的思维的。罗格斯大学(Rutgers University)的柯林·麦克金(ColinMc Ginn)说,人工智能“好比鼻涕虫试着要做弗洛伊德式的精神分析。它们就是不具备概念的技能”。

这是一个使科学界分裂了一个多世纪的问题:机器能思维吗?

人工智能的历史

机械生物的构想长久以来使发明家、工程师、数学家以及梦想家们为之神魂颠倒。从《绿野仙踪》(The Wizard of Oz)中的铁皮人到斯皮尔伯格的《人工智能:AI》(Artificial Intelligence: AI)中孩童模样的机器人,到《终结者》(The Terminator)中凶残的机器人们,像人一样行动和思维的机器这一构想使我们着迷。

在希腊神话中,天神伏尔坎(Vulcan)锻造了金子制成的机器女仆和能自己移动的三条腿的桌子。早在公元前400年,希腊塔林敦(Tarentmn)的数学家阿契塔(Archytas)就写到了关于制造用蒸汽驱动的机器鸟的可能性。

在公元1世纪,亚历山大港的希罗(Hero of Alexandria)(被认为设计出了第一台以蒸汽为原理的机器)设计了自动机,根据传说,其中一台自动机能够说话。900年以前,艾尔-雅扎里(Al-Jazari)设计和制造了自动机械,比如漏壶、厨房用具和以水为动力的乐器。

1495年,伟大的文艺复兴时期,意大利艺术家和科学家列奥纳多·达·芬奇(Leonardo da Vinci)绘制了一个可以坐起、挥动手臂、移动头部和下颚的机器人骑士的图像。历史学家相信这是首个类人机械的实际设计。

首个粗糙但能够运转的机器人是1738年由雅克·德·沃坎逊(Jacques de Vaucanson)制造的,他制作了一台能够吹长笛的人形机器人,还有一只机械鸭子。

“机器人”一词源自1920年的捷克戏剧《R.U.R》,由剧作家卡尔·卡佩克(Karl Capek)创作(“机器人”在捷克语中表示“繁重的工作”,在斯洛伐克语中表示“劳动”)。在剧中,一家名叫“罗森的万能机器人”(Ros-sum’s Universal Robots)的工厂制造了一支机器人军队从事非技术性劳动(不过,不同于普通的机器,这些机器人是用肉和血制造的)。最终,世界经济变得依赖于这些机器人。机器人们遭受残酷虐待,最后反叛了它们的人类主人,将他们杀得精光。但是,在盛怒之下,机器人也杀死了所有能够维修和制造新机器人的科学家,从而注定了它们自己的灭亡。在尾声,两个特殊机器人发现它们拥有复制的能力,并且可能成为新的机器人亚当与夏娃。

机器人还是最早、耗资最大的无声电影之一《大都会》(Metropolis)的内容主题,该片是由弗里兹·朗(Fritz Lang)于1927年在德国导演的。故事设定在2026年,劳动阶层无奈地在条件恶劣、肮脏的地下工厂工作,而处于统治地位的社会精英则在地面上寻欢作乐。一位美丽的女性玛丽亚(Maria)赢得了工人们的信任,但是统治阶层害怕有一天她会领导他们起来反抗。所以,他们让一名邪恶的科学家制造了一个玛丽亚的机器人副本,但最终,这一阴谋却事与愿违,因为这个机器人领导工人们反抗了统治阶层,并且引起了社会体系的崩溃。

人工智能,也称AI,与我们目前为止所探讨过的技术不同,对于支撑它的基础原理的了解仍旧很少。虽然物理学家对于牛顿力学、麦克斯韦的光学、相对理论和原子、分子的量子理论理解非常充分,但智能的基本原理仍旧被迷雾笼罩。AI领域的牛顿或许还没有出生。

但是数学家和计算机科学家仍旧顽强无畏。对他们来说,让一台能够思维的机器走出实验室只是个时间问题。

在AI领域影响最大、为AI研究奠定基石作出贡献的智者,是伟大的英国数学家阿兰·图灵(Alan Turing)。

图灵为整个计算机革命打下了基础。他设想了一台仅有三个要素组成的机器(它被称作图灵机):一条输入带、一条输出带和一个能够完成一组精确操作的中央处理器(比如奔腾芯片),由此,他得以制定出计算机的原理,并且精确地测定了它们的最大能力和极限。今天,所有的数字计算机都遵循图灵定下的严密法则。整个数字世界的建立欠了图灵一个巨大的人情。

图灵还为数学逻辑的建立作出了贡献。1931年,维也纳数学家科特·哥德尔(Kurt Godel)震撼了整个数学界,他证明算术中有些真实的命题永远无法以算术公理证明(例如,1742年的哥德巴赫猜想[Goldbach conjecture:任何大于2的偶数整数都可以被表示成两个质数之和]在250年之后仍没能被证明,且可能事实上是不可证的)。哥德尔揭露的事实粉碎了自古希腊以来延续了2500年的梦:证明数学系统中所有的真命题。哥德尔证明数学领域永远会有超出我们思维所及的真命题。数学远远不是古希腊人所梦想的那样完整和牢不可破,它被证明是不完整的。

图灵给这场革命添砖加瓦,证明一台图灵机是否需要使用无穷多的时间来完成某些数学运算是不可知的。伹如果一台计算机花费无穷多的时间来计算某事,那就意味着无论你要求计算机计算的是什么,它都是不可计算的。由此,图灵证明了数学中存在不可计算的真命题。换言之,那是永远超出计算机能力的,无论它有多么强大。

在第二次世界大战中,图灵在密码破译上的开拓性工作按理说拯救了盟军部队数以千计的生命,并且影响了战争的结果。盟军无法破译纳粹使用的—种名叫“埃尼格玛”(Enigma)的密码机所编译的密码,因此图灵和他的同事们被要求开发一种能够破译纳粹密码的机器。图灵的破译机被称为“炸蛋”(bombe),并最终取得了成功。到战争尾声,有200多台他的机器在运行。结果,盟军得以读懂纳粹的无线电波,并因此能够在最终进攻德国的时间和地点上愚弄纳粹德国。历史学家从那时起一直在争辩图灵的工作在诺曼底登陆的行动计划中究竟有多重要,诺曼底登陆最终导致了德国的失败。(战后,图灵的工作成果被英国政府列为机密,结果,他的关键性贡献不为公众所知。)

图灵没能被认为是帮助扭转二战局势的战争英雄,而是被无情地纠缠致死,一天,他的家遭人入室盗窃,于是他叫来了警察。不幸的是,警察发现了他是同性恋的证据并且逮捕了他。图灵后来被法院下令接受性激素注射,这导致了灾难性的后果,让他长出了女性的乳房,并且给他带来了巨大的精神痛苦,他于1954年吞食加了氰化物的苹果自杀(根据传闻,苹果公司的商标——一颗被咬去一口的苹果,是为了向图灵表示敬意)。

如今,图灵最为人熟知的可能是他的“图灵测试”(Turing test)。他厌倦了关于机器是否能够“思维”和它们是否具有“灵魂”的毫无成果、漫长无尽的哲学讨论,试图通过设计一个具体实验把严谨和精确引入关于人工智能的讨论。他提议把一个人和一台机器放入两个封闭的隔间里,测试者可以向每个隔间提问,如果不能分辨出人和机器给出的回答之间的不同,则这台机器就通过了“图灵测试”。

科学家们已经编写了简单的计算机程序,比如ELIZA,能够高度模仿对谈式的讲话,并且由此骗过大多数不存疑心的人们,让他们相信自己正在和一个人说话(比如,大多数人类对话只使用数百个单词,并且内容集中在少量的话题上)。但目前为止,能够瞒过特意想要确定哪个隔间里是人类、哪个隔间里是机器的人的计算机程序尚未编写成功(图灵本人猜测到2000年,在计算机能力以指数速度增强的前提下,能够建造出可以在5分钟的测试中骗过30%评判者的机器)。

一小部分哲学家和神学家已经宣布创造出像我们一样思维的机器人是不可能的,加利福尼亚大学伯克利分校的哲学家约翰·瑟尔提出了“中文房间测试”(Chinese room test)以证明AI是不可能存在的。瑟尔辩称,虽然机器人可能通过某些形式的图灵测试,但之所以能通过测试是因为它们在无理性的情况下操控符号,而丝毫都不理解这些符号的含义。

想象你坐在一间隔间里,而且你连一个中文字都不懂。假设你有一本书,能够让你迅速翻译中文,并且操控中文。如果有人用中文问你一个问题,那你仅仅是需要熟练使用这些形态古怪的字符,而不理解它们的意思,并且作出可信的回答。

他的反对意见的本质直指句法(syntax)和语义(semantics)的差别。机器人可以掌握一门语言的句法(例如熟练使用它的语法、它的正规结构,等等)而不是它真正的语义(例如词语的意思)。机器人可以在不明白词语含义的情况下熟练使用它们。(这和在电话里同一台自动语言信息机谈话有些类似,你必须键人“1”、“2”等等以获得各个回应。另一端的声音能完美地领会你被数字化的回应,但是完全不带有住何理解。)

牛津大学的物理学家罗杰·彭罗斯同样相信人工智能是不可行的,可以思考并且具备人类意识的机械生物按照量子理论是不可能的。他断言,人类大脑远远超越任何实验室所能产生的创造物,制造人类那样的机器人是一场注定要失败的试验。(他辩称,就如哥德尔的不完备定理证明了算术的不完整一样,海森堡测不准原理将证明机器无法进行人类式的思考。)

然而,许多物理学家和工程师相信物理学定律中不存在妨碍创造一个真正的机器人的内容。举例来说,常被称作信息理论之父的克劳德·香农(Claude Shannon)曾被问及“机器能思考吗?”他的回答是:“当然。”当他被要求进一步说明这一观点的时候,他说:“我会思考,不是吗?”换句话说,对他而言显然机器能够思考,因为人类便是机器(尽管是由湿件[wet-ware]而非硬件[hardware]所构成)。

由于我们看到了电影中所描绘的机器人,我们或许会认为开发出具备人工智能的成熟机器人是近在眼前的事情。事实却大相径庭。当你看到一个机器人像人类一样行动,其中多半另有奥妙。就是说,有个人躲在暗处用话筒通过机器人说话,像《绿野仙踪》中的巫师那样。事实上,目前我们最先进的机器人——比如在火星上漫游的机器人,只具备一只昆虫的智商,在麻省理工学院著名的人工智能实验室(Artificial Intelligence Laboratory),实验用机器人在重复哪怕是蟑螂能做到的行动时都有困难,比如在一间满是家具的房间里移动、寻找藏身之所和辨识威胁。地球上没有机器人可以理解你向其朗读的简单的儿童故事。

电影《2001:太空漫游》(2001:ASpace Odyssey)错误地假设到2001年我们将拥有HAL——能够驾驶宇宙飞船去木星、同船员们聊天、解决问题和几乎像人类一样行动的超级机器人。

自上而下的方式

科学家面临至少两个数十年来妨碍他们制造机器人的大问题:形状辨识和常识。机器人能比我们看得更加清楚,但它们不明白自己看到的是什么。机器人同样听得比我们更清楚,但它们不明白自己听到的是什么。

为了对付这两个问题,研究者们尝试使用达到人工智能的“自上而下法”(有时被称为“形式”[formalist]派或GOFAI,即“优秀老式AI”[good old-fashioned AI])。大致说来,他们的目的就是将所有的形状辨识和常识都编写到一张光盘上。他们相信,将这张光盘插入计算机后,计算机能够突然变得有自知,并且获得人类的智力。在20世纪50年代和60年代,随着能够下棋、拼积木等等的机器人的出现,这一方向取得了巨大的进展。这些进展非常惊人,以至于有人预测在数年内机器人的智力将超越人类。

1969年,在斯坦福研究所(Stanford Research Institute),机器人SHAKEY制造了一条重要新闻。SHAKEY是一台放置在一组轮子之上的小型PDP计算机,在顶部有一个摄像头。摄像头能够勘察整个房间,计算机会分析和辨认房间里的物体,并且试图在它们之中穿过。SHAKEY是第一台能够在“真实世界”中进行导航的机器人,这激励了记者们推测机器人何时将会把人类甩到后头。

但是,这种机器人的短处很快就显露出来,人工智能的自上而下法造就了体积巨大、笨拙的机器人,它们花上整个小时也只能通过只有直线形态物体——就是说正方形和三角形的特殊房间。如果在房间里放置不规则形状的家具,机器人将无力辨认它(具有讽刺意味的是,一个大脑含有25万个神经元——仅及这些机器人计算机能力几分之一的果蝇能够不费吹灰之力地在三维之中导航、穿过,完成令人眼花缭乱的翻圈飞行移动,而笨重的机器人却在二维之中迷失方向)。

自上而下的方法很快就碰了壁,计算机生活研究所(Cyberlife Institute)的主管史蒂夫·格兰德(Steve Grand)说,像这样的方法“有50年的时间自我证明,但表现仍旧没能与他们的承诺相符”。

在20世纪60年代,科学家们没有充分理解为机器人编程以完成哪怕是很简单的任务——比如指令机器人辨认如钥匙、鞋子和杯子等物件,其所涉及的工作有多么艰巨。就如麻省理工学院的罗德尼·布鲁克斯(Rodney Brooks)所说的:“40年前,麻省理工学院的人工智能实验室委培一名本科生在一个夏天里解决这一问题,他失败了;而我于1981年写博士论文的时候在同一个问题上也失败了。”实际上,AI研究者们目前仍然没有解决这个问题。

例如,当我们进入一个房间,我们会立刻识别出地板、椅子、家具、桌子等等。但是当一个机器人扫视房间的时候,它看到的只是一大堆直线和曲线,它会将这些转换成像素。理解这一大团乱糟糟的线条要花上极多的时间。辨认出一张桌子或许会花掉我们几分之一秒的时间,但是一台计算机只能看到一堆圆形、椭圆形、螺旋形和直线、曲线、边角等等。在漫长的计算过后,机器人或许最终能认出某一个物件是桌子,但如果将图像旋转,计算机就不得不完全从头来过。换句话说,机器人可以看,并且事实上能比人类看得更清楚,但它们不理解自己所看到的东西。在进入一间房间后,机器人只会看到一团线条和弧形,没有椅子,没有桌子,也没有灯。

我们的大脑在我们走进一个房间的时候无意识地通过进行数万亿次计算识别出物体——这是一种我们有幸全然不觉的活动。我们对自身大脑活动全然不觉的原因是进化。如果我们独自在森林中遇见一只袭来的剑齿虎,要是我们意识到所有辨认危险和实施逃跑所需的计算,我们将会瘫软。为了生存,我们做的一切只是了解如何逃跑。当我们生活在丛林中,我们完全无须觉察大脑识别地形、天空、树木、岩石等等所必需的一切输入和输出活动。

换言之,我们大脑的运转方式可与一座巨大的冰山相提并论。我们只窥见了冰山一角——自觉意识。但潜伏在表面之下、隐藏在视野之外、更加大上许多的部分——非自觉意识,消耗了巨量大脑“计算能力”以理解周围事物,比如辨认出你在哪里、与你谈话的人是谁和你的周围有些什么。所有这些都是在没有我们允许和了解的情况下完成的。

这就是机器人无法导航穿过一间房间、阅读手写体、驾驶货车和汽车以及拣拾垃圾等等的原因。美国陆军已经投入上亿美元试图开发机械士兵和智能火车,但没有获得成功。

科学家们开始意识到,下棋或将巨大的数字相乘只需要人类智力的很小部分。当IBM的计算机“深蓝”(Deep Blue)于1997年在一场六局比赛中打败世界象棋冠军加里·卡斯帕罗夫(Garry Kasparov),那是一场原始计算能力的胜利,但这场实验没有给我们带来任何关于智能或者意识上的收获,尽管比赛登上了许多新闻版面的头条。据印第地安那大学(Indiana University)的计算机科学家道格拉斯·侯世达(Douglas Hofstadter)说:“天啊,我曾经以为下棋需要思维。现在,我认识到它不需要。那并不意味着卡斯帕罗夫不是一位深层次的思考者,只说明你可以在下棋时避免进行深度思维,那是一种不用拍动翅膀就飞起来的方法。”

(计算机领域的发展同样也会对职业市场的未来产生巨大影响。未来主义者有时猜测,在未来几十年后,能保有工作的只有极富经验的计算机科学家和技术人员。但事实上如清洁工、建筑工、消防员、警察等工作者在未来仍旧会找到工作,因为他们的工作涉及形状识别。每一桩犯罪、每一件垃圾、工具和火灾都各不相同,因此无法由机器人胜任,具有讽刺意味的是,受过大学教育的雇员,比如低级别会计师、股票经纪人和出纳员,可能会在未来失业,因为他们的工作是半重复性质的,并且涉及了解数字——一项计算机擅长的工作。)

除了形状识别之外,开发机器人所面临的第二个问题更为基本,那就是它们缺乏“常识”。举例来说,人类知道:

·水是湿的。

·母亲比女儿年长。

·动物不喜欢疼痛。

·你死后不会复生。

·绳子只可以拉,不可以推。

·棍子只可以推,不可以拉。

·时间不会倒流。

伹是,没有微积分或数学算式可以表达这些事实。我们知道所有这些是因为我们看到过动物、水和绳子,而且我们自己理解了这些事实。孩子们通过投入现实世界学会常识。生物学和物理学的直观定律是通过与现实世界的互动,以艰难的方式习得的。但是机器人没有经历过这些,它们只知道预先给它们编排好的东西。

(结果,未来的职业还将包括那些要求具备常识的行业,即艺术创造力、独创性、表演才能、幽默感、娱乐、分析和领导能力。正是这些特质使我们成为计算机难以复制的、独一无二的人类。)

在过去,数学家们曾试图编制一个速成程序,能够一次性收集所有常识原则。最为雄心勃勃的尝试当属CYC (encyclopedia[百科全书]一词的简写)赛克公司(Cycorp)负责人道格拉斯·列纳特(Douglas Lenat)的构想。正如耗资20亿美元制造出原子弹的巨型项目“曼哈顿计划”,CYC被比作人工智能领域的“曼哈顿计划”,能实现真正人工智能的终极推力。

不出所料,列纳特的座右铭是:智能是1000万条规则(列纳特有一种新奇的方式用以从中寻找常识的新规则;他让他的雇员朗读花边小报的报道和耸人听闻的八卦杂志内容,然后问CYC是否能指出小报上的错误。其实,如果列纳特成功的话,CYC将在事实上比大多数小报读者更聪明)。

CYC的目标之一是实现“保本点”,也就是机器人能够开始获得足够知识,因而可以简单地通过在图书馆里找到的杂志和书本自己消化新信息的临界点。从这一点起,就如雏鸟离巢一般,CYC将能自己扇动翅膀,并且自己起飞。

但自从公司于1984年创建以来,它的信誉遭遇了AI领域的一大普遍问题:作出能成为新闻头条但很大程度上不合实际的预测。列纳特预测在十年内,到1994年,CYC将包含30%-50%的“普遍事实”(consensus reality)。如今,CYC仍旧没有关闭。赛克公司的科学家发现,为了让一台计算机接近一个四岁幼儿所拥有的常识水平,必须编制百万条的编码。现在,CYC仅包含有微不足道的4.7万种概念和30.6万条事实,与赛克公司定期的乐观新闻发布相悖,列纳特的同事之一,1994年离开公司的G.V.古哈(G.V.Guha)所说的话常被引用:“CYC总的来说被视作一个失败的项目……我们极为勉强地试图创造出自己承诺的一小部分。”

换言之,将全部常识原理编制到一台计算机中的努力已经举步维艰,理由很简单——常识的法则浩如烟海。人类能不费吹灰之力地学会这些法则,因为我们终身都长时间不断地投入外界环境之中,静静地吸收物理和生物法则,但机器人不会。

微软的创始人比尔·盖茨承认:“让计算机和机器人去感受他们周围的环境,并且迅速、准确地作出反应,要比预料中难得多……例如,根据房间里的物体确定自己方位的能力,对声音作出反应和理解发言的能力,以及抓住不同大小、质地和易碎度物品的能力。哪怕是简单到说出一扇敞开的门和—扇窗户之间的区别,对机器人而言也会是极为棘手的。”

然而,“自上而下”获得人工智能方法的支持者们指出,这一方向的进展尽管会间或进入冰冻期,但正在世界各地的实验室中发生。比如说,在过去的数年中,常常资助尖端科技项目的国防高级研究计划署(Defense Advanced Research Projects Agency,DARPA)已经为能够自我导航穿越莫哈韦沙漠(Mojave Desert)中一块多岩石地带的无人驾驶汽车赞助了一笔200万美元的资金。在2004年,没有一个参加DARPA挑战赛的参赛者能够完成赛程。事实上,表现最好的车设法在失灵前跑了7.4英里。但是,2005年斯坦福车队的无人驾驶汽车成功跑完了令人精疲力竭的132英里全程(尽管这花了那辆车7小时时间)。四部其他汽车也完成了赛程(有些批评者注意到规则允许汽车沿着一条长长的沙漠小径使用GPS导航系统。事实上,汽车可以沿着一条事先确定、没有太多障碍的线路图前进,因此汽车永远都不用指认它们路途中遇到的复杂的障碍物。在实际驾驶中,汽车必须在毫无预料的情况下辨明方向,绕过其他车辆、行人、施工地点、交通堵塞等等)。

比尔·盖茨对于机器人机械将成为“下一个大事件”持谨惧乐观态度。他将目前的机器人领域比作他30年前协助启动的个人计算机领域。正如个人计算机,它可能已经作好展翅高飞的准备。“没有人能确定无疑地指这一产业是否将产生巨大的影响。”他写道,“但如果它能,那将大大改变这个世界。”

(一旦拥有人类智能的机器人进入商业供应,它们的市场将是巨大的。尽管真正的机器人如今还不存在,事先设定程序的机器人却真的存在,并且数量激增。国际机器人学联盟[The International Federation of Robotics]估计,2004年这样的个人机器人有约200万个,到2008年将另有700万台被装配完成.日本机器人协会[The Japanese Robot Association]预测到2025年,如今价值50亿美元的个人机器人产业年产值将达到500亿美元。)

自下而上的方式

由于人工智能自上而下法的局限,这一领域的尝试已经转而采用一种“自下而上法”取而代之,模仿进化过程和婴儿学习的方式。例如,昆虫并不通过扫描周围环境并将图像降至他们使用超级计算机处理的数万亿个像素来进行导航。相对的是,昆虫的大脑由“神经元网络”组成,学习机制是通过投入充满敌意的世界来慢慢学会如何在其中行走。在麻省理工学院,能行走的机器人声名狼藉,难以通过自上而下的方式制造出来。但是,投入周围环境、通过抓挠来学习简单的昆虫形态的机械生物,已经能成功地在几分钟内在麻省理工学院的楼梯上跑来跑去了。

麻省理工学院著名的人工智能实验室由于其巨大、笨拙的“自上而下”的行走机器人而闻名,其负责人罗德尼·布鲁克斯在探索微型“昆虫”机器人这一概念的时候变成了异端者。这些“昆虫”机器人通过蹒跚地与物件碰撞来学习走旧式路线。他的昆虫们并不使用详尽复杂的计算机程序在它们行走的时候对脚的位置进行精确的数学计算,而是以很少的计算机能力使用测试与错误来协调它们的腿部动作。今天,许多布鲁克斯昆虫们的后裔正在火星上为NASA(美国国家航空航天管理局)收集数据,靠着自己的思想小步疾跑着穿过荒凉的火星表面。布鲁克斯相信他的昆虫适合对太阳系的探索,非常理想。

布鲁克斯的项目之一是COG,一项制造一台具有6个月婴儿智力的机器人的尝试。COG的外表看上去像是一团乱糟糟的电线、电路和齿轮,只是它有头、双眼和手臂。它没有被写入任何智能的法则。取而代之的是,它的双眼注视着一位人类训练师,他试着教会它简单的技能。(一位怀上孩子的研究人员打了个赌,到两岁为止时,看COG和她的孩子哪个学习得更快,结果那个孩子远远超越了COG。)

虽然有模仿昆虫行为的成功案例,但使用神经网络系统的机器人在它们的程序设计师试图在它们身上复制更高级的生物——如哺乳动物的行为时都表现奇差。最先进的使用神经网络系统的机器人可以走过一个房间或者在水中游泳,但它无法像狗一样在森林里跳跃和狩猎,或者和耗子一样在房间里四处乱窜。许多大型神经网络系统机器人可能会由数十个到或许数百个神经元构成,然而,人类大脑拥有超过1兆个神经元。线虫是一种简单的蠕虫,其神经系统已经被生物学家完全标绘出来:它的神经系统仅有约300多个神经元。这使得线虫的神经系统成为自然界中发现的也许是最为简单的神经系统之一。但在这些神经元之间有7000多个树突。简单如线虫,它的神经系统也极为复杂,以至于还没有人能够建立一个其大脑的计算机模型。(在1988年,一位计算机专家预测,到现在这个时候,我们将拥有具备超过1亿个人造神经元的机器人。事实上,如今具备超过100个神经元的神经系统就被认为是很杰出了。)

最具讽刺意味的是,机器人能够毫不费力地完成人类认为“困难”的工作,比如将很大数字相乘或者下棋;但是机器人在被要求完成对人类而言极为简单的工作时却会严重出错,比如走过一个房间、辨认面孔或者与朋友说长道短。原因是,我们最先进的计算机在本质上仅仅是做加法的机器。可是,我们的大脑由进化精心设计,以解决平凡的问题,如生存——这需要一整套复杂的思维构建,如常识和形状辨识。在森林中生存并不仰仗微积分或国际象棋,而是依靠躲避天敌、寻找伙伴和对变换的环境作出调整适应。

麻省理工学院的马文·明斯基(Marvin Minsky)——人工智能最初的奠基人之一,这样总结了人工智能所存在的问题:“人工智能的历史有点可笑,因为最初的实际功绩都是美丽的事物,比如能够作出逻辑论证或者在微积分课题中取得好成绩的机器。但随后我们开始试图制造能够回答关于初级阅读材料中简单故事的问题的机器,目前却没有机器可以做到这一点。”

有些人相信最终将会出现介于自上而下和自下而上两种途径之间的绝妙综合体,它或许将提供通向人工智能和类人机器的关键。归根结底,当一个孩子学习的时候,虽然他最初主要依赖自下而上法,投入他周遭的环境,但最终他会获得来自父母、书本和学校教师的指点,在自上而下的途径中学习,作为成年人,我们不断将这两种方式混合使用。例如,一位厨师阅读食谱,但也不断在烹饪的过程中尝菜。

汉斯·莫拉维克(Hans Moravec)说:“当有机械上的金钉子被用于努力将两种方式合为一体的时候,完全智能化的机器将会产生。”或许是在未来40年内。

情感机器人?

文学和艺术作品的不变主题之一是机械生物渴望成为人类,享有人类的喜怒哀乐。它们不满于自己由电线和冰冷的钢铁制成,希望能够大笑、哭泣和感觉所有人类所具有的情感上的愉悦。

比如,木偶皮诺曹想要变成真正的小男孩,《绿野仙踪》中的铁皮人想要一颗心,《星舰迷航》中的达达(Data)是一个体力和智能上都超越人类的机器人,但它仍旧渴望变成人类。

有些人甚至提出我们的情绪代表了身为人类的最高意义。永远都不会有机器能够面对火热的日落激动不已,或者因为一则幽默的笑话哈哈大笑——他们宣称。有些人说机器是永远不可能拥有情感的,因为情感代表了人类发展的顶峰。

但是,在人工智能领域工作和试图破解情感之谜的科学家们给出了另一幅画面。对他们来说,情感远远不是人类的精华,而实际上是进化的副产品。简而言之,情感对我们有益。它们帮助我们在森林中生存,甚至今天仍然在帮助我们测定生活中的危险。

举例来说,“喜欢”某事物从进化上来说是非常重要的,因为大多数事物对我们来说是有害的。在我们每天遭遇的数百万件物件中,只有少量是对我们有好处的。因此“喜欢”某物就是区分出那一小部分事物,它们可以帮助我们对抗可能伤害我们的数百万件事物。

同样,嫉妒是一种重要的情绪,因为繁殖成功对于保证我们的基因继续传到下一代非常关键(事实上,这就是为什么有那么多情绪上的攻击性感觉与性和爱相关的原因)。

羞愧和耻辱很重要,因为它们帮助我们学会在一个合作型社会中起作用的必需社交技巧。如果我们从来不说抱歉,最终我们将被驱逐出所属的团体,减少我们生存和延续基因的机会。

孤独同样是一种必不可少的情感。乍一看孤独似乎是不必要和多余的。毕竟,我们可以独自过活。但是渴望与同伴在一起对于我们的生存也很重要,因为我们依赖族群的资源而存活。

换言之,当机器人变得更加先进,它们同样可能会具备情感。或许机器人将会被设定为与它们的主人或看管者联系在一起,以确保它们的生命不会在垃圾场里终结。拥有这样的情感能够帮助缓解它们在社会中的过渡过程,这样它们就会成为得力的伴侣,而不是主人的竞争对手。

计算机专家汉斯·摩拉维克相信机器人将配有如“恐惧”这样的情感以自我保护。比如说,如果一个机器人的电池即将耗尽,那个机器人“会以人类可以辨识的信号表现出焦虑甚至恐慌。它会去邻居家并且要求使用他们的插座,说着‘求求你!求求你!我需要这个!这很重要,这只要一点点花费!我们会补偿你!”

情感在作出决定时也重要。遭受某种特定脑损伤的人们缺乏体验情感的能力。他们的理解能力是完好无损的,但他们无法表达任何感情。爱荷华大学(University of Iowa)医学院的神经学家安东尼奥·达马西欧(Antonio Damasio)博士研究过有此类脑损伤的人,总结说他们看似“能感知,但是无感觉”。

达马西欧博士发现这样的人总是在要作出最微小的决定时茫然失措。没有了指引他们的情感,他们会没完没了地考虑这个选择或那个选择,导致残缺性的犹豫不决。达马西欧博士的一位患者花了半小时试图决定他下一次约会的日期。

科学家们相信情感是在大脑的“边缘系统”中处理的,它位于我们大脑中心的深层。当人们深受新皮层(掌管理性思维)和边缘系统之间交流不利所扰时,他们的理解能力完好无损,但是他们不具备指导自己作出决定的情感。有时候我们具有“直觉”或者“肠道反应”,它能驱动我们作出决定。受到损伤影响大脑理性和情感部分之间交流的人不具备这一能力。

例如,当我们购物的时候,我们无意识地对所见到的每件东西作出上千次价值判断,例如“这个太贵了、太便宜了、太花哨了、太蠢了,或者正好”。对于受到此类脑损伤的人来说,购物可能变成一场噩梦,因为所有东西的价值似乎都一样。

当机器人变得更加聪明,并且能够自己作出选择,它们也可能因为犹豫不决而陷入困境(这让人联想起圣经中的寓言故事,一只驴坐在两大堆干草之间,最终因为无法决定吃哪一堆而饿死了)。为了帮助它们,未来的机器人可能需要将情感深深植入它们脑中。麻省理工学院媒体实验室的罗莎琳德·皮卡德(Rosalind Picard)博士对机器人缺乏情感这一情况评论说:“它们无法感知什么是最重要的,那是它们最大的缺陷之一。计算机就是做不到这—点。”

正如俄罗斯小说家费奥多尔·陀思妥耶夫斯基(Fyodor Dostoevsky)所写的:“如果地球上的一切都是理性的,那什么都不会发生了。”

换言之,未来的机器人可能需要情感以设定目标和为它们的“生命”赋予意义及结构,否则它们将发现自己在无限的可能性面前全面瘫痪。

它们有意识吗?

对于机器是否能够有意识并无共识,甚至没有关于“意识”的含义的一致意见。没有人能够对意识给出一个合适的定义。

马文·明斯基描述意识更多的是一种“思想的社会”,就是说,在我们的大脑中,思维过程不是局部化的,而是散发的,在任何规定的时间内有不同的中心部分相互竞争。因此,意识或许会被视作由这些不同的、小型的“心智”所产生的一连串思想和画面,每一个这样小型的“心智”都热切希望抓住我们的注意和为此竞争。

如果这是真的,那或许“意识”已经过了盛期,或许对于这一被哲学家和心理学家过分神秘化的课题已经有太多相关的论文。也许定义意识并不是那么困难。就像位于拉荷亚(La Jolla)的萨克生物研究院(Salk Institute)的西德尼·布伦纳(Sydney Brenner)所说:“到2020年——有美好愿景的年头——意识作为一个科学问题将消失……我们的继承人将对今天所讨论的科学垃圾的数量大吃一惊——如果他们有耐心阅遍过时期刊的电子文档的话。”

用马文·明斯基的话说,人工智能研究饱受“物理嫉妒”之苦。物理学界的圣杯是找到一条简单的方程式,能够将宇宙中所有的力统一成一种简单的理论,创造一个“万物至理”。人工智能的研究人员过度受这一概念影响,试图找到一种单个的模式以解释意识。但是在明斯基看来,这样一个简单的模式或许不存在。

(那些身处“解释者”流派中的人,比如我自己,相信应该有人试着制造一台能思维的机器人,而不是无止境地辩论能思维的机器人能否创造出来。关于意识,或许存在着一种意识的连续介质,从卑微如调控房间温度的温控器到如当今的我们这样的自觉生物体。动物可能是有意识的,但是它们并不经历人类水平的意识。因此,我们应当尝试将不同种类和水平的意识进行分类,而非就关于意识的定义这类哲学问题进行辩论。机器人可能最终实现一种“硅意识”。机器人有一天可能会具备一种不同于我们的思维和信息处理架构。未来,先进的机器人或许会让语法和语义之间的区别变得模糊不清,如此一来它们作出的回应将变得无法与人类作出的回应相区别。如果是这样的话,它们是否真的“理解”问题这一疑问将很大程度上变得无关紧要。一个完全精通句法的机器人实际上理解自己所说出的话。换言之,对句法的完全精通即是理解。)

机器人会是危险的吗?

鉴于摩尔定律宣称计算机的能力每18个月增加一倍,可以想象在未来几十年里具有狗或者猫那样的智力水平的机器人将被制造出来。但是,到2020年,摩尔定律很可能会崩溃,而且硅的时代将走向终结。在50年左右的时间里,微型硅晶体管的制造能力为计算机能力的惊人增长添加了燃料,数千万个微型硅晶体管能轻易放在你的指甲盖上。紫外线射线被用于将微晶体管蚀刻到硅芯片上。但是这一进程无法永远持续下去。最终,这些晶体管将微小至达到分子的大小,这一进程将会瓦解。在2020年后,硅的时间最终画上句号时,硅谷可能变成“锈带”。

你笔记本电脑中的奔腾芯片有一个宽约20个原子的层次。到2020年,奔腾芯片可能会由一个宽仅5个原子的层次构成。在那个水平上,海森堡测不准原理生效,你将不再知道电子的位置。随后电会从芯片里泄漏出来,计算机将会短路。到那时,计算机革命和摩尔定律将因为量子理论的定律而遭遇困境(有些人已经声称数字时代是“颗粒对原子的胜利”。但最终,当我们达到了摩尔定律的极限,原子们或许将进行报复)。

物理学家正在研究2020年后能统治计算机世界的“后硅”技术,但是到目前为止,结果喜忧参半。根据我们已知的情况,有多种正在被研究的科技可能最终取代硅技术,包括量子计算机、DNA计算机、光学计算机、原子计算机等等。但是,在接过硅芯片的重任之前,它们每一个都面临着巨大的难关。操控单个的原子和分子是一种仍处于襁褓中的技术,因此制造数十亿个原子大小的晶体管还在我们的能力之外。

假设一下,比如说,物理学家暂时能够消除硅芯片和量子计算机之间的差距,并且假设摩尔定律的另一种形式延续进入了“后硅时代”,那么人工智能或许会真正成为可能。到那个时候,机器人可能掌握人类的逻辑与情绪,并且毎次都通过图灵测试。史蒂芬·斯皮尔伯格(Steven Spielberg)在他的电影《人工智能:AI》中探索了这个问题,影片中首个能表达情感的机器人男孩被创造出来,并且因此适合被人类家庭领养。

这提出了一个问题:这样的机器人会是危险的吗?答案可能是肯定的。一旦具备了猴子的智力,它们就有可能变得危险。猴子的智力意味着自我意识可以创造出自己的目标。要达到这一水平可能要用上好几十年,因此科学家们有大把的时间在机器人引起威胁之前观察它们。例如,可以在它们的处理器中放置一块特别的芯片以防止它们进入暴乱状态。或者,给它们设定自毁或撤销装置,能够在紧急情况下关闭它们。

亚瑟·C.克拉克写道:“我们变成计算机的宠物是有可能的,导致我们成为宠物狗那样娇生惯养地生活。但我希望我们永远保留在感觉到需要的时候拔掉插头的能力。”

更常见的威胁是,我们的基础设施依赖于计算机。我们的水力和电力网络,更不用说交通和通信网络,在未来会更加计算机化。我们的城市已经变得如此复杂,只有复杂而交错的计算机网络能够控制和管理我们庞大的基础设施。未来,在这样的计算机网络中加入人工智能会越来越重要。这一无处不在的计算机基础设施一旦发生失误或者故障,会使一座城市、一个国家甚至一个文明瘫痪。

计算机会最终在智力上超越我们吗?当然,物理定律中没有任何内容能阻止它。如果机器人能以神经网络的形式学习,并且它们发展到了能够比我们更加迅速和有效地学习的临界点,那么它们最终可能在思考能力上超越我们是符合逻辑的。摩拉维克说:“(后生物学世界)是一个人类种族被文化变革的浪潮所清除、被自己的幼子剥夺权利的世界……当这一切发生,我们的DNA会发现自己失去了作用,已经在进化的赛跑中输给了一种新型的竞争。”

—些发明家,比如雷·库兹韦尔(Ray Kurzweil),预测这一时刻会很快到来,比想象的更早,甚至就在未来的几十年内。或许我们正在创造自己进化上的继承者。一些计算机科学家们想象一个被他们称作“奇点”(singularity)的点,到那时机器人将能以幂指数的速度处理信息,在过程中创造新的机器人,直到它们总体吸收信息的能力前进至几乎没有极限。

所以,从长期来看,有人倡议碳科技与硅科技的融合,而不是坐等我们自己灭绝。我们人类的主要基础是碳,但是机器人的基础则是硅(至少目前如此).或许解决的方法是与我们的缔造物相融合,(如果我们遭遇天外来客,我们将毫不惊讶地发现它们是部分有机、部分机械的,这样能承受太空旅行的艰苦,并且在敌对环境中兴盛。)

在遥远的未来,机器人或类人半机械人甚至也许能赋予我们永生的能力。马文·明斯基补充说:“如果太阳死亡,或者我们毁灭了地球会怎样?为什么不培养更好的物理学家、工程师或者数学家?我们或许必须成为自己未来的建筑师。如果我们不这么做,我们的文化或许会消失。”

摩拉维克想象在遥远未来的某个时刻,当我们的神经构造能够一个神经元一个神经元地被直接转移给一台机器的时候,这将赋予我们在某种意义上的永生。这是一个狂野的想法,但并不超出可行的范围。所以,根据一些关注未来的科学家的说法,永生(以加强DNA或者硅制身体的形式)可能是人类的终极未来。

制造至少同动物一样聪明并且或许同我们一样聪明、甚至比我们更聪明的能思维的机器——如果我们能克服摩尔定律的崩溃和常识问题,这一假想或许会成为现实,可能甚至就在本世纪晚些时候。尽管AI的基本规则还在发掘中,但这一领域的发展极其迅速,并且很有前景。因为这一点,我将机器人和其他能思维的机器归类为“一等不可思议”。