虽然机器人的外观极为传神,以至于在相片中人们可能会将其误以为是人类,但亲眼目睹其动作时,仍会引发某些特定的程度的不安。机器人可以展现浅笑、蹙眉等了解的表情,但是,要精确解读这些表情背面的共同心情状况却颇具应战,这使得人们难以确定其实在感触,并可能会发生一种不安感。
迄今为止,关于可以移动面部多个部位的机器人(例如仿人机器人),在长期展现面部表情时,人们一般会用“凑集法”。这种办法触及预备多个预先设定的动作场景,以保证面部动作的天然性,并依据本身的需求在这些场景之间进行切换。
但是,这种办法也带来了实践应战,包含预备杂乱的动作场景、最好可以下降过渡期间的不天然动作,以及对动作进行微调以奇妙地操控所传达的表情。
在本研讨中,首要作者石原久志及其研讨团队开发了一种动态面部表情组成技能,该技能选用“波形运动”办法,将面部运动的各个组成部分(如“呼吸”、“眨眼”和“打哈欠”)表明为独立的波形。这些波形传达至相应的面部区域并叠加,以实时生成杂乱的面部运动。该办法无需预备杂乱的动作数据,一起避免了显着的动作过渡。
此外,经过引进“波形调制”,依据机器人的内部状况调整各个波形,心情等内部条件的改变可以即时反映在面部运动上。
资深作者Koichi Osuka指出:“推进动态面部表情组成研讨,将使可以履行杂乱面部动作的机器人展现出更生动的表情,并可以传达其对周围环境(包含与人类互动)的心情反应。”这将极大地丰厚人类与机器人之间的情感沟通。
石原进一步弥补道:“相较于只是发明外表动作,进一步开发一个体系,使机器人的内涵情感在每一个行为细节中得到表现,可能会发明出被以为具有情感的机器人。”
经过完成自适应地调整和表达心情的功用,这项技能有望显着提高沟通机器人的价值,使其可以以更天然、更人性化的方法与人类进行信息沟通。