您在的位置: 名家首页 > 创新信息 > 电子信息 > 正文

模仿人类思维与情绪机器人的创新信息

发布人:zml  发布时间:2014年05月27日 15:49:41  浏览量:

模仿人类思维与情绪机器人的创新信息

1.模仿人类思维意识机器人的新成果

⑴开发出拥有最原始大脑的机器人。

2005年11月,《新科学家》杂志刊文称,来自美国加里福尼亚神经研究院的一个研究小组,开发出一种被称为“第七达尔文”的全新机器人。这种机器人不像普通的机器人那样依靠计算机程序控制,而是由约二万多个神经元来指挥其行动。

据介绍,该机器人由固定操纵臂的底座和其它操作装置构成。此外,这种拥有最原始大脑的机器人,还拥有较为完整的感觉“器官”:随机配备的微型摄像机扮演着眼睛的角色、数个麦克风可使它拥有对声音的感知能力、专门为其开发的传感器还可以让它区分出不同的味道来。只不过,该机器人的设计外形,让人难以加以赞誉——其外形和大小很像一个垃圾箱。

 “第七达尔文”机器人,可遵照动物的“自然本能”进行活动,它可以表现出对周围环境的好奇和兴趣,也可以从周围环境中学习积累一些经验。如,当它在地板上移动时,会及时记住家中物品的摆放位置,还能够依靠自己原始的大脑,自主判断对某些物品花色的好恶。

开发出以神经元代替微型集成电路的机器人,是众多科研机构多年的愿望。两年前,乔治亚工学院研究人员,曾开发出一种所谓的“杂交”机器人“吉布罗特”,它所使用的大脑神经元取自家鼠。当然,这种杂交机器人在当时根本不能自主进行活动。

⑵研制出能区分自身和他人的具有自我意识机器人。

2005年12月,明治大学的竹野顺一领导的一个研究小组,研制出一种具有自我意识的机器人。它能够分别哪个是镜子里自己的影子,而哪个是另一个和自己相象的机器人。

这种镜像认知,是以机器人电脑中控大脑中的人工神经细胞组为基础的。机器人正是有了这种人工神经细胞组后,才具有认识自己和识别他人的能力。这项具有里程碑意义的技术,最终将实现让机器人具有表达感情的能力。它的出现,标志着人类又向发展机器人的自我意识、理解以及人类自我意识建模方面,迈进了一大步。

竹野指出:“对于人类而言,意识是自身以及他人的行为能够被理解的基本状态。”他还说,人类通过意识学习行为,相对应的也在行动时学会思考。因此,要要使机器人具有这种能动性,就必须在它的神经网络中设计一个中枢区域,使意识和行为的信息处理,能够同时在这里进行。

竹野研究小组把机器人的人工神经元,与蓝、红、绿三种颜色的二级发光管相连。一旦神经元开始处理信息,就会根据机器人行为让不同的二极管发光。

德国慕尼黑技术大学的托马斯·波克对此评价道:“这其中最具有创新意义的部分,就是设在分级处的独立节点。这些节点是能够连通并激活的。”例如,当机器人所表现出来的行为认为是自己时,两个红色的二极管就会发光;当机器人表现出来的行为认为,是其他机器人时,两个绿色的二极管就会发光;而当机器人识别其他机器人正在模仿自己的行为时,两个蓝色的二极管就会发光。

竹野说,在实验中,让一个机器人看着其他机器人的动作,并立即将之传送到自己身上,出现模仿行为,这是有意识的最好例证。这样,当一个机器人向前、停止或是向后移动时,另一个机器人也跟它做一样的动作。同时,在此情况下,科学家可以通过神经元兴奋状况,以及它所引起的蓝色灯闪光的状况了解到:这个机器人已经知道另一个机器人正在模仿自己的行为了。

在另一个实验中,研究人员把机器人放在一面镜子前。这样一来,机器人和自己的影子(有时候有可能被机器人认为是另一个机器人)就会同时向前或向后移动。尽管蓝色灯会亮,但亮灯的频率远低于其他实验的频率。事实上,机器人有70%的时候,是能够知道镜子里的影子就是自己的。竹野表示他近期的目标,是要让正确达到100%。

⑶研制出可识别自己并理解他人意图的机器人。

2007年6月,有关媒体报道,美国耶鲁大学的凯文·戈尔德,及其导师布雷恩·斯卡赛拉迪等人组成的研究小组,研制出一个名叫“尼科”的机器人,它能识别自己,并理解他人的意图。

测试过程中,尼科凝视着他面前的镜子,镜子里面有个身穿耶鲁大学字样的圆领衫、歪戴着一顶棒球帽的家伙。当尼科抬起胳膊时,那个家伙也同时做相同的动作。这一刻,尼科明白了,镜子里抬起的胳膊就是自己的胳膊,镜子里的那个家伙就是自己。尼科作为一个机器人,在其同类中,它可是第一个能从镜子里认出自己的。

能认出自己的映像,被认为是婴儿发育的一个重要里程碑,也是衡量其他动物是否具有自我意识、社交性和智力的重要标志。但是,尼科是由一堆堆零部件组装起来的机器人,怎样才能让它具备认知自我的能力呢?科学家为的确实花了一番心思。

研究小组为尼科安装了一条有关节的胳膊,在它的一只眼睛后面安装了一台摄像机,并与一台运行智能软件的计算机相连。

当尼科的眼睛对准镜子时,软件把镜子中的映像划分成“自己”、“别人”和“两者都不是”三类。通过不停地比较一帧帧连续的图像,软件可以识别出某一帧图像和下一帧图像之间的像素变化。当尼科开始移动时,它胳膊上的运动传感器会同时告知软件。如果镜子中映像的某一部分像区发生变化,而与此同时传感器检测到它的胳膊在移动,它会认为这部分映像很可能是“自己”;如果某一部分像区在移动而传感器没有检测到它的胳膊移动,它会把这部分映像归为“别人”;而那些在两种情况下都静止不动的映像区域,很可能为“两者都不是”。这样,尼科不仅可以认出自己的胳膊在移动,也能分辨出其他人移动的胳膊。

为了测试尼科的自我认知能力,戈尔德编制了一个程序,让尼科的胳膊连续运动4分钟,同时用装在它眼睛上的摄像机将整个过程录下来。通过将录像和传感器的检测信号作比较,让尼科学习熟记,传感器检测到的胳膊运动和录像中的胳膊运动是如何对应的。然后尼科再次站到镜子前,戈尔德就站在它旁边。当尼科移动它的胳膊时,戈尔德做了一系列不同的动作,如玩戏法、喝瓶装水。试验证明,尼科能正确的识别出与它的胳膊运动,以及与戈尔德的运动分别相对应的像素区,识别率超过95%。

戈尔德说,即使在机器人受到损坏、穿上不同的衣服或者在不同的光线条件下,通过将装在机器人上的摄像机捕捉的影像和装在胳膊上的传感器检测到的信号相比较,机器人仍能认出自己的胳膊。这将有助于它们执行如操纵物体之类的任务,或者使它们可以根据变化的地形,调整自己的步伐。而通常的软件经常会被表面和环境的变化欺骗。

⑷研发具有类似人的身体和认知能力的机器人。

2008年7月,美国《科学日报》报道,一个由神经学家和机器人专家组成的国际研究小组,在承担欧洲资助的“仿生”机器人计划中,已经研发出一个有着类似人的手和手臂的新型机器人,而且更妙的地方在于,该机器人手臂由一个类似人类小脑的“电子脑”控制。这个新型机器人的出现,使得科学家对类人机器人的研究又推进了一步。

 研究小组认为,研发一个具备智能性、灵活性和敏感性机器人的最好方法,就是模拟人类的身体和大脑。而这种方法被称之为“仿生”。欧盟的第六框架计划为该项目投资了650万欧元,经过两年半的研究,科学家设计出一个类人的机器人手臂。

而研制成功需要踏出的第一步,是使该机器人手臂能有像人类一样敏感的皮肤。为了达成这一目标,研究人员首先要了解人类的皮肤。不仅要知道皮肤对压力与位置如何感知,还要清楚地知道直接的压力从何而来等。由瑞典雨美大学领队的研究人员,在德国航天航空中心进行研究,发明了一种由碳原子填充的薄柔性材料且碳原子的电阻随压力变化,以此来模拟皮肤的感知能力。这种技术能把皮肤不同位置的遥感器传递的信息结合起来,并减少信息传递线的数量。

人类的手臂和手能产生并控制一定的力量,而大部分的力量产生于控制着每个关节的反向肌肉群。德国航天航空中心的研究人员采用了相同的原理,他们在人工手臂的类似人体“反向肌肉群”的部分安装了58个电动机,并由非线性弹簧控制整个手臂的活动。他们发明的人工手,与人类手的功能非常相似,其手指靠38个发动机控制,能灵活移动。该人工手能自如地弹动手指,能拿起一只鸡蛋甚至能端起一杯咖啡。当然,研究人员还需要进行最基础的分析,例如对人类的手上数百个不同位置进行详细的磁共振成像研究,力求获得更精确的数据,而这在其他的研究中也是未曾有过的。

研究人员需要解决的另一大难题,是为机器人手臂建造人造小脑。该研究小组从一开始就知道,他们要研发的仿生手臂仅有敏感性、灵活性和力量是不够的,还需要高度的智能化。苏格兰爱丁堡大学和瑞典隆德大学的科学家们认为,最好的办法是研发模拟人脑的人造小脑。因此,研究人员的最终目标是研发一块微芯片,而该智能芯片能使这个机器人手臂具有人类在真实环境中具备的技术能力。据悉,研究人员已经使用软件,来模拟小脑的思维和信息整合等重要过程。

⑸研发能看懂人类手势的人工智能机器人。

2009年3月,生活科学网报道,美国布朗大学机器人专家查德·詹金斯领导的研究小组,正在开发能看懂人类手势的智能机器人。

詹金斯表示,人类能感知影子、颜色和物体,但这对机器人来说很难。他领导的研究小组正在开发由人类士兵控制的,能处理未爆炸炸弹的机器人PackBot,该机器人懂人类手势,如前进、停止和等候。

PackBot升级版还有摄像头,具有深度感,这意味着它能精确知道任何背景下的人物轮廓大小。詹金斯希望士兵最终能训练PackBot会特定的手势,并叫它如何记下来。

⑹研发能判断人类意图的机器人。

2009年6月,有关媒体报道,欧盟资助的一个多学科研究小组,正在研发一种可预测人类伙伴意图的机器人,这将使机器人与人类的互动更为自然。该研究小组由从事机器人技术、心理学和认知科学的科学家组成。

目前,能言善辩、步履矫健、思维敏捷的机器人,还只是存在于科幻小说中,我们现今的自动化机器与之相比还相距甚远。即便是现今最先进的智能机器人,也比“奴隶”强不了多少,因为它只能做一些程序指定的任务。

许许多多的科学家,正在努力创建一个更像是同伴而不是工人的机器人。但是要扮演这样的角色,这些机器人就必须能与人类以自然的方式进行互动,积极主动地参与任务和决策。研究人员期望机器人能提问、讨论和评估各种可能性、预测其伙伴的想法,并参与到伙伴的下一步行动中去。

欧盟研究小组的一个主要内容,就是从事人际合作的研究,这些实验及其结果可为开发更自然的机器人行为提供借鉴。

据介绍,研究人员都是他们所从事学科的带头人,在有关联合行为和决策等认知过程方面,均获得了一些重大发现。最重要的是,他们仔细研究了到底是何种观察方式在联合行为中发挥了重要作用。研究人员已证明,人们在看到一项行为时,就会激活一系列的“镜像神经元”。这些神经元的谐振,就好像是他们正在模仿这些行为,大脑通过有效复制正在发生的事情来学习这些行为。在该项目中,科学家在联合行为中发现了类似的谐振现象:人们在观察他们伙伴的行为时,大脑复制出他们的行为并试图理解这些行为。

换句话说,大脑对观察到的行为进行处理,就好像它自己在做这些事情。大脑形成其他人行为的镜像,这既是为了运动模拟目的,也是为了选择最适当的后续行为。

研究人员在不同的场合对机器人进行测试。在一种场景中,机器人被设置成一名“老师”,负责指导和协调其人类伙伴来制造一个复杂的模型玩具;在另一种场景中,机器人和人类伙伴则是平等的。研究人员表示,测试的目的是要确定人类是否能与机器人协调工作,机器人是否能在不被告知的情况下自行了解接下来要做什么。

例如,通过观察其人类伙伴如何选择一个工具或是模型零件,机器人就能预测到其人类伙伴打算如何使用这些工具或零件。类似这样的线索,将有助于机器人预测其人类伙伴接下来可能需要什么。研究人员表示,在机器人能选择下一个项目前,机器人并不必看到这些行为的结果。

这些机器人还被编程为会处理一些疑点,并在其人类伙伴意图含糊不清时寻求澄清这些疑点。例如,如果一个零件可被用来构建3个不同的结构,机器人就不得不询问其合作伙伴使用这些零件的意图。

⑺研制出可识别镜中自己的新奇智能机器人。

2011年12月,国外媒体报道,西班牙马德里机器人公司,设计师弗朗西斯科·帕兹领导的研究小组,研制的智能机器人,不仅能够学会识别镜中的自己,而且还会做出相应的反应。

据介绍,这款智能机器人名为“邱波”。经过训练后,邱波可以识别出镜中自己的影子,而且还可以根据设计好的程序做出反应,“哦,这就是我,太棒了!”

帕兹研究小组,在实验中决定测试一下邱波的反应能力,考察它看到镜子中自己的镜像时会发生什么。识别镜子中自己镜像的能力,也属于一种人工智能,这种能力通常出现于灵长类动物、海豚、大象以及人类身上。

在发布于网站的一段视频中,邱波正在镜子面前自我陶醉。最初,机器人并不知道它像什么。一位研究人员会告诉邱波去仔细观察自己的长相,邱波就会自动存储自己所看到的信息,用于以后的识别。接下来,当研究人员再次要求它去看镜子中的自己时,邱波就会做相应的反应,“哦,这就是我,太棒了!”

帕兹介绍说:“这是一项关于自我意识反应心理学的简单实验。”他表示,下一步他将继续训练邱波的人工智能,使它能够拥有自动识别能力。

2.模仿人类感觉机器人的新成果

⑴视觉方面:研制能用像人一样的眼睛看人的机器人。

2007年4月,外国媒体报道,麻省理工学院亚伦·埃德辛格领导的研究小组,研制出一个名叫“多摩”的机器人,它有着像人一样的眼睛,能与人类进行交流,能对周围的环境做出回应,并能协助人类完成许多工作。

目前,多摩能够辨别出物体,然后靠近它们,把它们放在架子上。与其他的机器人不同,它能够通过自己的“眼睛”(两个摄像头)来感知周围的环境。这两个摄像头看上去非常像人眼,它们与12台电脑相连接。

埃德辛格说,把它的摄像头做成人眼状,一方面是为了使它能更好的观察周围的环境并做出迅速的判断,另一方面是为了使它看上去更像人类。

多摩可以对人类环境做出回应,特别是它能感知人的脸。当它判断出对面的物体是人脸时,它就会进行定位跟踪。

近日一项研究,还证明多摩的语音识别功能,当埃德辛格说:“你好,多摩!”时,多摩也会做出友好的回答。当埃德辛格说:“架子,多摩!”时,多摩就会用一只金属和线构成的“手臂”小心翼翼的靠近架子,然后触摸架子确定它的存在。

然后,埃德辛格把一包咖啡豆放在多摩的另一只手上。多摩能够把它拿起来摆动,并能通过“视觉”判断出物体的大小,然后再传递到另一只手上,另一只手还会把这包咖啡豆放到架子上。

多摩与其前辈不同,它还具有触觉功能,这对于与人交流时的安全性非常的重要。它的颈部、手臂和手上的弹性装置可以帮助它感知外界力量,这样使它能够以适当大小的力量做出回应,并能保持正确的方向。如果力量过大或方向不正确,就有可能使人受伤。

一开始,多摩的研发资金来自美国宇航局,现在由丰田汽车公司赞助,因为他们可以将这样的机器人用于汽车装配的流水线生产上。智能机器人可以提高工人的工作效率。

⑵听觉方面:开发出可在嘈杂环境中识别人声的机器人。

2005年6月,日本产业技术综合研究所的研究人员,开发出一种机器人,它可在嘈杂环境中分辨出人的声音,并根据人的命令行事。

这种名为“HRP2”的机器人,配备有一套新的声音识别系统,它的耳部安装了8个麦克风,可确定分别从不同方向传来的音乐和其他声音。机器人的眼部可通过照相机图像分辨出人的面孔。机器人可以在多种嘈杂的声音中确认哪一种是人的声音,然后将人声以外的声音作为杂音清除。机器人最终将只能听到人的声音,理解人的指示内容。

在实验中,研究人员让人站在正在播放节目的电视机旁边,口头下达各种命令,结果机器人根据人的命令,作出各种各样的动作。由于机器人和电视机通过网络连在一起,机器人还可以根据人的命令,变换电视频道和播放录像等。

⑶嗅觉方面:研制出能辨别空气成分的反恐抢险机器人。

2007年7月,有关媒体报道,保加利亚鲁塞大学与鲁塞“民防”管理处,在欧洲另外4所大学的协助下,研制出一种新型特种机器人。

报道称,这是一种准备用于救灾抢险和恐怖爆炸后现场清理的机器人。同它被赋予的“超群本领”相比,现有的警用排雷机器人性能欠佳,好像遥控的电动玩具。它体重250公斤,能自己爬上八层楼,能自主穿行于被炸毁后大楼的残垣断壁等障碍物之间,能依靠微弱的气息找到被埋在残垣断壁下的幸存者。它的传感器,还能极精确地测定生物化学危险品在空气中散发物质成分的浓度。

⑷味觉方面:制成能准确辨别数十种食物的“味觉”机器人。

2005年6月9日,《富士产经商报》报道,日本电气公司和三重大学组成的联合研究小组,开发出世界首个“味觉”机器人,它在日本爱知世博会演示时,能够准确辨别出数十种食物。

研究人员说,虽然这款机器人名为“味觉”机器人,但它辨别食物,并不是通过食物的味道,而是通过不同食物特有的“红外指纹”。

不同食物反射红外线的能力不同,并因此形成各自独有的“红外指纹”。“味觉”机器人的左手尖,安装有红外线探测装置,能够获取所“品尝”食物的“红外指纹”。经过与数据库资料的对比后,就可以判断食物的名称。专家认为,“味觉”机器人用途广泛,可以用类似技术,开发智能冰箱等新型家电产品。

⑸皮肤温觉方面:研制出能够感知人体体温的救援机器人。

2005年1月21日,日本媒体报道,日本神户市一家国际救援系统研究机构,公开展示了可在大规模灾害中,进行救援活动的机器人。

报道称,这种名叫IRS苍龙的蛇型机器人,能够感知人体体温,并能拍摄到被埋在瓦砾中的受害者。大约10种这样的机器人在展示中亮相。这次展示,是日本神户召开的国际减灾会议相关活动的一部分。

该研究机构研究员伊能崇雄说:“今后还要继续不断的改良救援机器人,希望它们能够在灾害救援时发挥特殊应有的作用。”

这家国际救援系统研究机构,一直在进行灾害救援机器人、调查灾害地情况的可遥控小型无人直升机等的自主开发研究。在2004年日本新潟县发生的地震中,也试用了救灾机器人。

⑹触觉方面:开发出通过敲打振动检查下水道系统的机器人。

2004年7月,日本岐阜大学镰田敏郎副教授和积水化学工业公司研究人员一起,开发出能够检查下水道系统老化情况的机器人,既可以提高检查精确度,又能削减检查成本。

据悉,研究人员在下水道管内,放入由三节装置组成的机器人。机器人在管道内侧敲打,用感知装置记录振动波形,最后用计算机分析管道老化、裂纹和被腐蚀的情况。在此之前,检查下水道多在管道内放入照相机,用目测的方法检查,不仅要依靠检查者的经验,而且费事,成本很高。用机器人检查,因为不需要人力,可以节省人的工资,因而降低了成本。

日本埋在地下的管道约为34万公里,近20年来增长4倍。敷设50年的管道老化严重,为了防止泄漏事故需要维修和更换。随着时间的推移,地下管道的检查任务将越来越重,不怕脏,灵活而适应能力强的机器人,将大有用武之地,为此,镰田敏郎决定成立风险公司承包检查业务。

⑺平衡觉方面:研制出“动态平衡”机器人。

2006年8月,美联社报道,美国卡内基·梅隆大学拉尔夫·霍利斯领导的研究小组,研制出一种具有“动态平衡”能力的机器人。有关专家认为,这种机器人将来可被用来照顾残疾人或陪伴老人。

据报道,这种名为“球虫”的机器人身高1.5米,它可以依靠其下部安装的形似保龄球的“动态平衡”装置直立移动和随意转向,并且在遇到推搡或碰撞时,也能迅速恢复直立状态,看上去有点像马戏团表演滚球的动物在做平衡。

霍利斯指出,大多数机器人都是通过基座上的轮子保持平衡,当机器人身高增加时,必须相应增大基座的面积才能校正重心,这种平衡模式叫做“静态平衡”,它的缺点是体积大、平衡性差和难操控。

采用“动态平衡”模式的“球虫”机器人,却可以通过球体内的传感器采集地形、周围环境和自身状态的数据,然后通过机载电脑对数据进行分析处理并驱动电动机及时调整平衡,霍利斯解释说,这一动态过程与人脑的自动补偿平衡机制类似。

霍利斯认为,由于“球虫”机器人始终在球体上运动,所以转身灵活并且占地小,非常适合在医院等空间有限的地方工作,未来可以被用于照顾残疾人或是陪伴老人。霍利斯表示,目前“球虫”机器人距离商业应用还有一段距离。

⑻机体疼痛觉方面:制成能测出病人痛感的医用机器人。

2011年9月,美国《科学公共图书馆·综合卷》,发表斯坦福大学医学院的一项新研发成果:不用通过询问病人,而是利用医学机器人检测病人是否有疼痛感。

研究人员报告说,他们利用仪器,整理出人在感觉到疼痛时的大脑扫描图,让医学机器人“记住”这些图像的特征,从而通过这种神经成像技术检测人的疼痛感。

试验中,研究人员让8名志愿者,先后接触较热和滚烫的物体,并在他们接触这两类物体时分别进行大脑扫描。接着,让医学机器人通过一种基于统计学习理论的模式识别方法,来给大脑活动模式进行分类,从而确定志愿者是否正被疼痛折磨。结果显示,医学机器人测定志愿者疼痛感的准确率达80%以上。

目前,医生了解病人是否感到疼痛,通常只能通过询问才知道。然而,对于尚无说话能力的幼儿、无法开口说话的老年病人,以及患痴呆症、失去意识的病人,往往不能得出准确的答案。所以,医学界一直在努力开发疼痛检测装置。这台医学机器人的出现,有望最终解决疼痛检测问题,为治疗慢性疼痛疾病提供帮助。

3.模仿人类表情机器人的新成果

⑴研制出能模仿人类简单动作并富有表情的机器人。

阿拉伯联合酋长国大学赛义夫·穆罕默德领导的研究小组,开发出一款新型机器人,不但能模仿人类的简单动作,而且脸上还有丰富的表情。2009年2月23日,它在阿联酋首都阿布扎比举行的防务展上,向世人展示自己独特的魅力。

这款机器人能使用英语和阿拉伯语两种语言与人对话,并模仿人的简单动作。研究者介绍说,机器人的脸上有45块“电动肌肉”,因此它能够做出微笑、生气、害怕等多种表情。除了表情丰富,它还有着很实际的用途。研究者指出,它可以代替保安执行安全保卫任务。它的眼中装有摄像机,在任何环境都可不间断监视,而且其眼睛还能像真人一样转动。

这款机器人的皮肤由仿硅胶混合物制成,其质感类似真人皮肤。目前,它只有面部和上肢能够活动,研制小组的目标是把它改进成可以自由行走、自如活动的仿真机器人,在人类指挥下完成保卫和监控等任务,同时还能对人类的各种动作和语言做出回应。

⑵发明会做多种表情的“爱因斯坦”机器人。

2009年2月27日,英国媒体报道,在美国加利福尼亚大学举行的科技、娱乐与设计会议上,展出了一款“感情机器人”。它以科学家爱因斯坦长相为模型,由美国机器人大师大卫·汉森一手打造。“爱因斯坦”机器人的头部与肩膀的皮肤,看上去与真人的皮肤没有什么两样。这种皮肤由一种特殊的海绵状橡胶材料制成,它融合了纳米以及软件工程学技术,连褶皱都非常逼真。另外,该机器人目光炯炯有神,可以做出各种表情,这让现场的与会者都惊讶得目瞪口呆。

据介绍,汉森制作的“爱因斯坦”机器人,面部装有31处人造运动肌,因此可以做出相当丰富的面部表情。而且,这款机器人“脑中”装有一个专门识别人脸表情的软件,这样机器人就能随时根据人类的情绪变化,来改变自己的表情,与人互动。

汉森介绍说,“爱因斯坦”机器人,目前可以识别悲伤、生气、害怕、高兴以及疑惑等情绪。机器人拥有表情,可以说是科技界一大重要突破。

4.模仿人类个性机器人的新成果

设计出可显示个性特征的机器人。

2009年5月,韩国科学技术院的金钟焕、三星经济研究院的李次豪、三星电子公司的李康熙等人组成的研究团队,发表的一份研究报告称,他们为机器人设计了由计算机编码的基因组,且这些“人造生命”中已编码了特殊的个性。

研究人员认为,给“人造生命”形式赋以独特个性,不仅将改进人类与“人造生命”之间的自然交往,也将开启“人工物种起源”研究的大门。

这个可显示个性特征的机器人,名叫“ Rity”,是首个拥有基因组个性的“人造生命”。其实,它是生活在计算机虚拟3D世界中的,一个外形像狗的软件图符。它的基因组由14个染色体组成,共有1764个基因,每个基因都有其自己的值。研究人员没有用人工手段去指定这些基因的值,因为这很困难,也很耗时,他们提出用改良的方法,来产生一个带有用户期望之特殊个性的基因组。

Rity的内部由动机、体内平衡和情绪等3个单元组成,并由其内部控制架构进行控制。这3个单元总共具有14种状态,它们是14个染色体的基础:动机单元包括6种状态(好奇、亲密、单调、逃避、贪婪和控制欲望);体内平衡单元包括3种状态(疲劳、饥饿和困倦);情绪单元包括5种状态(快乐、悲伤、愤怒、恐惧和平和)。

摘自张明龙、张琼妮《国外电子信息领域的创新进展》知识产权出版社2013年版,第365~375页。