前言
虚拟数字人,是存在于数字世界的“人”,通过动作捕捉、三维建模、语音合成等技术高度还原真实人类,再借助AR/MR/VR等终端呈现出来的立体“人”。在人工智能、虚拟现实等新技术浪潮的带动下,虚拟数字人制作过程得到有效简化、各方面性能获得飞跃式提升,开始从外观的数字化逐渐深入到行为的交互化、思想的智能化。以虚拟主播、虚拟员工等为代表的数字人成功进入大众视野,并以多元的姿态在影视、游戏、传媒、文旅、金融等众多领域大放异彩。
一、什么是虚拟数字人
1、虚拟数字人研究范畴
“虚拟数字人”一词最早源于1989年美国国立医学图书馆发起的“可视人计划”(VisibleHumanProject,YHP)。2001年,国内以“中国数字化虚拟人体的科技问题”为主题的香山科学会议第174次学术讨论会提出了“数字化虚拟人体”的概念。
这些“虚拟数字人”主要是指人体结构的可视化,以三维形式显示人体解剖结构的大小、形状、位置及器官间的相互空间关系,即利用人体信息,实现人体解剖结构的数字化。主要应用于医疗领域的人体解剖教学、临床诊疗等。
与上述医疗领域的数字化人体不同,本篇中所分析的虚拟数字人(以下简称“数字人”)是指具有数字化外形的虚拟人物。与具备实体的机器人不同,虚拟数字人依赖显示设备存在。虚拟数字人宜具备以下三方面特征:
一是拥有人的外观,具有特定的相貌、性别和性格等人物特征;
二是拥有人的行为,具有用语言、面部表情和肢体动作表达的能力;
三是拥有人的思想,具有识别外界环境、并能与人交流互动的能力。
2、虚拟数字人发展历程
虚拟数字人的发展与其制作技术的进步密不可分,从最早的手工绘制到现在的CG(ComputerGraphics,电脑绘图)、人工智能合成,虚拟数字人大致经历了萌芽、探索、初级和成长四个阶段,详见下图。
虚拟数字人发展历程
20世纪80年代,人们开始尝试将虚拟人物引入到现实世界中,虚拟数字人步入萌芽阶段。该时期虚拟数字人的制作技术以手工绘制为主,应用极为有限。1982年,日本动画《超时空要塞》播出后,制作方将女主角林明美包装成演唱动画插曲的歌手,并制作了音乐专辑,该专辑成功打入当时日本知名的音乐排行榜Oricon,林明美也成为了世界上第一位虚拟歌姬。
1984年,英国人GeorgeStone创作出一个名为MaxHeadroom的虚拟人物,MAX拥有人类的样貌和表情动作,身穿西装,佩戴墨镜,曾参演了一部电影,拍摄了数支广告,一度成为英国家喻户晓的虚拟演员。由于技术的限制,其虚拟形象是由真人演员通过特效化妆和手绘实现。
21世纪初,传统手绘逐渐被CG、动作捕捉等技术取代,虚拟数字人步入探索阶段。该阶段的虚拟数字人开始达到实用水平,但造价不菲,主要出现在影视娱乐行业,如数字替身、虚拟偶像等。电影制作中的数字替身一般利用动作捕捉技术,真人演员穿着动作捕捉服装,脸上点上表情捕捉点,通过摄像机、动作捕捉设备将真人演员的动作、表情采集处理,经计算机处理后赋予给虚拟角色。
2001年,《指环王》中的角色咕噜就是由CG技术和动作捕捉技术产生,这些技术后续还在《加勒比海盗》、《猩球崛起》等电影制作中使用。2007年,日本制作了第一个被广泛认可的虚拟数字人“初音未来”,初音未来是二次元风格的少女偶像,早期的人物形象主要利用CG技术合成,人物声音采用雅马哈的VOCALOID系列语音合成,呈现形式还相对粗糙。
近五年,得益于深度学习算法的突破,数字人的制作过程得到有效简化,虚拟数字人开始步入正轨,进入初级阶段。该时期人工智能成为虚拟数字人不可分割的工具,智能驱动的数字人开始崭露头角。
2018年,新华社与搜狗联合发布的“AI合成主播”,可在用户输入新闻文本后,在屏幕展现虚拟数字人形象并进行新闻播报,且唇形动作能与播报声音实时同步。
2019年,浦发银行和百度共同发布的数字员工“小浦”,也是利用自然语言处理、语音识别、计算机视觉等人工智能技术制作的虚拟数字人,可通过移动设备为用户提供“面对面”的银行业务服务。
当前,虚拟数字人正朝着智能化、便捷化、精细化、多样化发展,步入成长期。2019年,美国影视特效公司数字王国软件研发部负责人DougRoble在TED演讲时展示了自己的虚拟数字人“DigiDoug”,可在照片写实级逼真程度的前提下,进行实时的表情动作捕捉及展现。今年,三星旗下的STARLabs在CES国际消费电子展上展出了其虚拟数字人项目NEON,NEON是一种由人工智能所驱动的虚拟人物,拥有近似真人的形象及逼真的表情动作,具备表达情感和沟通交流的能力。
3、当前虚拟数字人通用系统框架及运作流程
当前虚拟数字人作为新一代人机交互平台,仍处于发展期,还未有统一的通用系统框架。这份白皮书根据虚拟数字人的制作技术以及目前市场上提供的数字人服务和产品结构,总结出虚拟数字人通用系统框架,如下图所示。
虚拟数字人系统一般情况下由人物形象、语音生成、动画生成、音视频合成显示、交互等5个模块构成。
人物形象根据人物图形资源的维度,可分为2D和3D两大类,从外形上又可分为卡通、拟人、写实、超写实等风格;语音生成模块和动画生成模块可分别基于文本生成对应的人物语音以及与之相匹配的人物动画;音视频合成显示模块将语音和动画合成视频,再显示给用户。
交互模块使数字人具备交互功能,即通过语音语义识别等智能技术识别用户的意图,并根据用户当前意图决定数字人后续的语音和动作,驱动人物开启下一轮交互。
虚拟数字人通用系统框架
交互模块为扩展项,根据其有无,可将数字人分为交互型数字人和非交互型数字人。非交互型数字人体统的运作流程如下图非交互类虚拟数字人系统运作流程所示。系统依据目标文本生成对应的人物语音及动画,并合成音视频呈现给用户。
非交互类虚拟数字人系统运作流程
交互型数字人根据驱动方式的不同可分为智能驱动型和真人驱动型。智能驱动型数字人可通过智能系统自动读取并解析识别外界输入信息,根据解析结果决策数字人后续的输出文本,然后驱动人物模型生成相应的语音与动作来使数字人跟用户互动。
该人物模型是预先通过AI技术训练得到的,可通过文本驱动生成语音和对应动画,业内将此模型称为TTSA(Text To Speech & Animation)人物模型。真人驱动型数字人则是通过真人来驱动数字人,主要原理是真人根据视频监控系统传来的用户视频,与用户实时语音,同时通过动作捕捉采集系统将真人的表情、动作呈现在虚拟数字人形象上,从而与用户进行交互。
智能驱动型虚拟数字人运作流程
真人驱动型虚拟数字人运作流程
二、虚拟数字人关键技术趋势
1、虚拟数字人技术架构
当前,虚拟数字人的制作涉及众多技术领域,且制作方式尚未完全定型,通过对现有虚拟数字人制作中涉及的常用技术进行调研,金准产业研究团队在虚拟数字人通用系统框架的基础上提炼出五横两纵的技术架构,如下图所示。
“五横”是指用于数字人制作、交互的五大技术模块,即人物生成、人物表达、合成显示、识别感知、分析决策等模块。其中,人物表达包括语音生成和动画生成。动画生成则包含驱动(动作生成)和渲染两大部分。“两纵”是指2D、3D数字人,3D数字人需要额外使用三维建模技术生成数字形象,信息维度增加,所需的计算量更大。
虚拟数字人技术架构
金准产业研究团队重点关注虚拟数字人制作过程涉及的建模、驱动、渲染三大关键技术。
2、建模:静态扫描建模仍为主流
相机阵列扫描重建替代结构光扫描重建成为人物建模主流方式。早期的静态建模技术以结构光扫描重建为主。结构光扫描重建可以实现0.1毫米级的扫描重建精度,但其扫描时间长,一般在1秒以上,甚至达到分钟级,对于人体这类运动目标在友好度和适应性方面都差强人意,因此被更多的应用于工业生产、检测领域。
近年来,拍照式相机阵列扫描重建得到飞速发展,目前可实现毫秒级高速拍照扫描(高性能的相机阵列精度可达到亚毫米级),满足数字人扫描重建需求,成为当前人物建模主流方式。
国际上IR、Ten24等公司已经将静态重建技术完全商业化,服务于好莱坞大型影视数字人制作,国内凌云光等公司制作的拍照式人体扫描系统也已经在电影、游戏、虚拟主播项目中成功应用。
相比静态重建技术,动态光场重建不仅可以重建人物的几何模型,还可一次性获取动态的人物模型数据,并高品质重现不同视角下观看人体的光影效果,成为数字人建模重点发展方向。
动态光场重建是目前世界上最新的深度扫描技术,此技术可忽略材质,直接采集三维世界的光线,然后实时渲染出真实的动态表演者模型,它主要包含人体动态三维重建和光场成像两部分。
人体动态三维重建一直是计算机视觉、计算机图形学等领域研究的重点,主要采用摄像机阵列采集动态数据,可重建高低频几何、纹理、材质、三维运动信息。
光场成像是计算摄像学领域一项新兴技术,它不同于现有仅展示物体表面光照情况的2D光线地图,光场可以存储空间中所有光线的方向和角度,从而产出场景中所有表面的反射和阴影,这为人体三维重建提供了更加丰富的图像信息。
近年来Mirosoft、Google、Intel、Facebook等公司都在积极展开相关研究,其中Microsoft的108摄像机MRstudio已经在全球各大洲均有建设;Google的Relightable系统将结构光、动态建模、重光照技术集成到一起,在一套系统中包含模型重建、动作重建、光照重建的全部功能;国内清华大学、商汤科技、华为等也展开了相关研究,并取得国际水平的同步进展。
3、驱动:智能合成、动作捕捉迁移
2D、3D数字人均已实现嘴型动作的智能合成,其他身体部位的动作目前还只支持录播。2D、3D数字人嘴型动作智能合成的底层逻辑是类似的,都是建立输入文本到输出音频与输出视觉信息的关联映射,主要是对已采集到的文本到语音和嘴型视频(2D)/嘴型动画(3D)的数据进行模型训练,得到一个输入任意文本都可以驱动嘴型的模型,再通过模型智能合成。
然而,2D视频和3D嘴型动画底层的数学表达不一样,2D视频是像素表达;3D嘴型动画是3D模型对应的BlendShape的向量表达。除了嘴型之外的动作,包含眨眼、微点头、挑眉等动画目前都是通过采用一种随机策略或某个脚本策略将预录好的视频/3D动作进行循环播放来实现。例如3D肢体动作目前就是通过在某个位置触发这个预录好的肢体动作数据得到。
触发策略是通过人手动配置得到的,未来希望通过智能分析文本,学习人类的表达,实现自动配置。截至目前,国内外科技企业在数字人动作智能合成方面都有一定进展,国际上如Real lusion公司研究的利用语音生成面部表情的Craytalk技术已在动画制作中被成功商用,国内搜狗、相芯科技等公司也有部分项目落地应用。
通过将捕捉采集的动作迁移至数字人是目前3D数字人动作生成的主要方式,核心技术是动作捕捉。动作捕捉技术按照实现方式的不同,可分为光学式、惯性式、电磁式及基于计算机视觉的动作捕捉等。现阶段,光学式和惯性式动作捕捉占据主导地位,基于计算机视觉的动作捕捉成为聚焦热点。光学动作捕捉通过对目标上特定光点的监视和跟踪来完成运动捕捉的任务。
最常用的是基于Marker(马克点)的光学动作捕捉,即在演员身上粘贴能够反射红外光的马克点,通过摄像头对反光马克点的追踪,来对演员的动作进行捕捉。这种方式对动作的捕捉精度高,但对环境要求也高,并且造价高昂。光学式解决方案比较出名的企业有英国的Vicon,美国的OptiTrack和魔神(Motion Analysis),国内的Nokov、uSens、青瞳视觉等。
惯性动作捕捉主要是基于惯性测量单元(Inertial Measurement Unit,IMU)来完成对人体动作的捕捉,即把集成了加速度计、陀螺仪和磁力计的IMU绑在人体的特定骨骼节点上,通过算法对测量数值进行计算,从而完成动作捕捉。这种惯性动作捕捉方案价格相对低廉,但精度较低,会随着连续使用时间的增加产生累积误差,发生位置漂移。
惯性式动捕方案的代表性企业有荷兰的Xsens,以及国内的诺亦腾(Noitom)、幻境、国承万通等。基于计算机视觉的动作捕捉主要是通过采集及计算深度信息来完成对动作的捕捉,是近些年才兴起的技术。这种视觉动捕方式因其简单、易用、低价,已成为目前使用的频率较高的动作捕捉方案,代表性产品有LeapMotion、微软Kinect等。以上动捕方案的性能对比如下图所示。
主流动作捕捉方案性能对比
4、渲染:真实性和实时性均大幅提升
PBR(Physically Based Rendering,基于物理的渲染技术)渲染技术的进步以及重光照等新型渲染技术的出现使数字人皮肤纹理变得真实,突破了恐怖谷效应。恐怖谷效应由日本机器人专家森政弘提出,认为人们对机器人的亲和度随着其仿真程度增加而增高,但当达到一个较高的临界点时,亲和度会突然跌入谷底,产生排斥、恐惧和困惑等负面心理。
数字人恐怖谷效应主要由数字人外表、表情动作上与真人的差异带来,其中外表真实感的关键就是皮肤材质的真实感,无论是塑料感还是蜡像感都会给人类带来不适。在PBR技术出现之前,限于相关软硬件的发展程度,所有的3D渲染引擎,更多的着重在于实现3D效果,在真实感体现方面差强人意。
PBR是基于真实物理世界的成像规律模拟的一类渲染技术的集合,它的关键在于微表面模型和能量守恒计算,通过更真实的反映模型表面反射光线和折射光线的强弱,使得渲染效果突破了塑料感。目前常见的几款3D引擎,如Unreal Engine4, CryEngine3, Unity3D5,均有了各自的PBR实现。
重光照技术通过采集模拟多种光照条件的图像数据,测算数字人表面光照反射特性,并合成出数字人模型在新的光照下的渲染结果,使计算机中的虚拟数字人在任意虚拟环境下都可以呈现近乎真实的效果,它彻底改变了传统渲染方式通过模拟皮肤复杂的透射反射来计算渲染总会带来误差的局面。
该技术在2000年初由南加州大学实验室创建LightStage平台时提出,并开始了相关研究,目前已经经过7代的迭代发展,已被成功应用到《阿凡达》、《复仇者联盟》等众多经典影片的角色制作中。国内清华大学、浙江大学也都建设了重光照系统,可以实现高精度人体光照采集与重建。
实时渲染技术的突破助力写实类数字人实现实时交互,应用范围快速扩大。实时渲染指图形数据的实时计算与输出,其每一帧都是针对当时实际的环境光源、相机位置和材质参数计算出来的图像。与离线渲染相比,实时渲染面临较大挑战。一是渲染时长短,实时渲染每秒至少要渲染30帧,即在33毫秒内完成一帧画面渲染,离线渲染则可以花费数小时甚至更长时间渲染一帧画面;二是计算资源有限,实时渲染受限于时效要求,计算资源一般是不能及时调整,而离线渲染受时效限制较低,可临时调配更多的计算资源。
早期的实时渲染只能选择高度抽象和简化过的渲染算法,牺牲了画面质量。随着硬件能力的提升和算法的突破,渲染速度、渲染效果的真实度、渲染画面的分辨率均大幅提升,在虚拟人物实时渲染方面,已经能做到以假乱真。
2016年,EpicGames联合3Lateral、CubicMotion、NinjaTheory等公司联合开发的可实时驱动的虚拟人物在当年的Siggraph(Special Interest Group for Computer GRAPHICS,计算机图形图像特别兴趣小组,致力于推广和发展计算机绘图和动画制作的软硬件技术)会议中做了演示,成功在消费级的硬件环境下实时渲染了高质量的虚拟角色。
2018年5月,腾讯发布虚拟人Siren,也一个支持实时渲染的虚拟人物。
离线渲染与实时渲染对比
三、虚拟数字人产业应用现状
1、虚拟数字人产业视图
当前虚拟数字人理论和技术日益成熟,应用范围不断扩大,产业正在逐步形成、不断丰富,相应的商业模式也在持续演进和多元化。虚拟数字人的产业链从上到下可以分为基础层、平台层和应用层,如下图所示。
虚拟数字人产业视图
基础层。基础层为虚拟数字人提供基础软硬件支撑,硬件包括显示设备、光学器件、传感器、芯片等,基础软件包括建模软件、渲染引擎。显示设备是数字人的载体,既包括手机、电视、投影、LED显示等2D显示设备,也包括裸眼立体、AR、VR等3D显示设备。光学器件用于视觉传感器、用户显示器的制作。传感器用于数字人原始数据及用户数据的采集。
芯片用于传感器数据预处理和数字人模型渲染、AI计算。建模软件能够对虚拟数字人的人体、衣物进行三维建模。渲染引擎能够对灯光、毛发、衣物等进行渲染,主流引擎包括Unity Technologies公司的Unity3D、EpicGames公司的UnrealEngine等。总体来看,处于基础层的厂商已经深耕行业多年,已经形成了较为深厚的技术壁垒。
平台层。平台层包括软硬件系统、生产技术服务平台、AI能力平台,为虚拟数字人的制作及开发提供技术能力。建模系统和动作捕捉系统通过产业链上游的传感器、光学器件等硬件获取真人/实物的各类信息,利用软件算法实现对人物的建模、动作的重现;渲染平台用于模型的云端渲染。解决方案平台基于自身技术能力为广大客户提供数字人解决方案。AI能力平台提供计算机视觉、智能语音、自然语言处理技术能力。平台层汇聚的企业较多,腾讯、百度、搜狗、魔珐科技、相芯科技均有提供相应数字人技术服务平台。
应用层。应用层是指虚拟数字人技术结合实际应用场景领域,切入各类,形成行业应用解决方案,赋能行业领域。按照应用场景或行业的不同,已经出现了娱乐型数字人(如虚拟主播、虚拟偶像)、教育型数字人(如虚拟教师)、助手型数字人(如虚拟客服、虚拟导游、智能助手)、影视数字人(如替身演员或虚拟演员)等。不同外形、不同功能的虚拟数字人赋能影视、传媒、游戏、金融、文旅等领域,根据需求为用户提供定制化服务。
2、虚拟数字人重点领域应用环境及典型应用案例分析
虚拟数字人应用给传统领域带来变革。金准产业研究团队分析认为,通过虚拟数字人产品与生产生活相融合,其规模化、可定制化、可复制化的能力能够推动改善传统环节流程、提升效能、降低成本等,大幅提升业务体验,给传统领域带来变革。典型的应用领域、场景及充当的角色如下图所示。
虚拟数字人应用领域、场景及角色
虚拟数字人+影视。特效电影广受市场认可,扶持政策的密集出台,以数字替身为代表的虚拟数字人+影视类的产品应用正在展现广阔的市场前景。影视是对视觉效果的要求最高且最大程度影响社会对数字人形象认知、品牌的一个领域。近年来中国影视数字人特效取得快速发展,部分特效大片获得市场认可。2019年中国影视票房收入超过640亿级别,连续多年增长8%左右,其中特效电影约占10%。国家对于影视特效的发展十分重视,先后出台了一系列相关扶持政策。
2019年,科技部、文化部联合六部委发布《关于促进文化和科技深度融合的指导意见》,提出加强激光放映、虚拟现实、光学捕捉、影视摄录、高清制播、图像编辑等高端文化装备自主研发及产业化。2020年,国家电影局《关于促进科幻电影发展的若干意见》,提出以科幻电影特效技术发展引领带动电影特效水平整体提升,并要落实财税支持政策,同时对入驻影视文化基地的科技企业进行租金减免。
于2019年2月22日在中国内地上映的《阿丽塔:战斗天使》是虚拟数字人技术与影视相结合的典型应用案例之一。剧中的女主角阿丽塔是一位完全采用数字人技术制作的角色。该电影通过采用特殊的面部捕捉仪器对真人演员人脸细节进行精准捕捉,然后将其作为电脑中虚拟角色的运动依据,使虚拟角色的动作和表情能像真人一样自然逼真。
2013-2019中国电影票房收入增长趋势
中国内地电影票房总收入TOP10
虚拟数字人+传媒。以虚拟主播为代表传媒行业应用很好的满足了媒体传播领域对内容生成方面的业务需求,成为了融媒体时代的传媒利器。据金准产业研究团队根据相关产业数据统计,2019年中国视频直播行业收入达到1082亿人民币,全国有3.9亿人在关注虚拟偶像,其中最大的二次元活动社区B站月活用户达1140万,虚拟主播占直播营收40%。
同期,B站、虎牙等大型直播平台也都开启了线上、线下虚拟主播活动。如Bilibili MacroLink系列活动VR直播观看如数达到660万,10万级的“up主”(指在视频网站、论坛、FTP站点上传视频音频文件的人)就可以达到100万级真人主播的应收。
此外,在传统媒体领域,以虚拟主持人为代表的数字人应用也开始进入公众视野。在2019年央视网络春晚舞台上,以撒贝宁为原型制作的AI虚拟主持人“小小撒”首次上岗与原型同台秀技。这也是国内第一次人类主持人和自己的虚拟孪生数字人共同主持大规模的国家级文化活动,引起了业界及网民的强烈关注。
虚拟数字人+游戏。游戏市场日趋激烈,对于精品的需求日益增长,或是虚拟数字人技术在该领域落地的福音。2019年游戏市场规模达到2300亿,其中与数字人相关度较大的RPG类游戏约占30%的份额。我国国内游戏监管环境和游戏版号审批政策仍旧趋严,游戏用户数相比2018年仅增加0.1亿,市场竞争日趋激烈,对于精品的需求越来越高。
虚拟数字人技术则能够有效简化和加快游戏动画制作过程,可以在有限成本的情况下让游戏中更多的虚拟角色都具备丰富的肢体动作和精细的面部表情,给玩家带来更沉浸的游戏体验。例如网易伏羲实验室成功将虚拟数字人技术应用到《逆水寒》等多个游戏剧情动画场景制作中,在无手工参与下,快速生成动画,这使得大量的虚拟角色都能富有视觉的表达能力。
2015-2019中国游戏市场实际销售收入
虚拟数字人+金融。虚拟数字人能够有效助力金融机构实现“降本增效”,各大金融巨头争相布局“数字员工”。运用金融科技实现“降本增效”应对市场竞争成为金融行业发展共识,以科技为核心的竞争导向,带来了金融机构信息科技投入的逐年增加。据轻金融统计,2019年,16家全国性银行科技总投入超千亿,总计1034.1亿元。其中工农中建四大行投入均超过100亿元,建行投入最高,达到176.33亿元。
虚拟数字人拥有拟人的表情动作,可进行智能对话,能够与服务类场景较多的金融行业天然结合。多家金融机构正利用虚拟数字人技术打造“数字员工”,成为了科技创新、降本增效的重要方向。以中国工商银行为例,其推出的数字人银行员工,在移动终端和大屏等媒介上展现数字拟态形象,能够在产品营销讲解、金融业务办理、资讯播报、咨询问答等多个业务场景,实现与用户的可视化交互,为用户带来个性化服务,有效解除用户顾虑,提升用户体验和驻留时间,真正让数字化服务“听得见”的同时也“看得见”。
部分国际领先金融机构信息技术投入金额与增速
全国性科技总投入与占营收比重
虚拟数字人+文旅。数字文旅产业表现突出,以虚拟讲解员为代表的虚拟数字人应用或为其贡献蓬勃力量。据中国旅游研究院统计,2019年前三季度,文旅营业收入62187亿元,比上年同期增长7.6%,特别是数字文旅产业表现突出,成为文旅产业转型升级的重要引擎。金准产业研究团队分析,数字文化内容与互联网旅游、智慧旅游、虚拟旅游等新模式联动发展,特别是疫情期间得到不断增长。
目前,虚拟数字人在文旅领域暂时还没有落地产品,但相关概念产品已经开始映入公众眼帘。例如商汤科技在2020世界人工智能大会(WAIC)上展示的AI数字人“小糖”。“小糖”可依托于展台前的滑动屏幕,为观众介绍和讲述预先设定好的讲解内容。虚拟数字人带来的全新展示方式和讲解模式,在帮助文旅场馆解决人力不足问题的同时,更凭借其智能化、电子化和展示效果多样化的特性,为文旅行业的未来带来更多可能性。
2012-2019全国国内旅游人数
四、虚拟数字人发展趋势和制约因素
1、虚拟数字人未来发展趋势
虚拟数字人的采集、制作流程逐步简单化、一体化,迭代式提升真实感。未来数字人的制作技术将会变得更加简单,会有更加一体化、自动化的设备同步获取模型、身体、表情、手指运动、声音等所有数据,无需穿戴专业传感设备。在特定的环境下人们甚至无法分辨数字人的真假,可以更加自然与数字人交流互动。
虚拟数字人的交互方式衍变,智能化程度不断加深。全双工技术将推进数字人的交互方式衍变,让数字人拥有一次唤醒、多次交互的能力,具备实时智能响应、智能打断、智能纠错、多轮对话等功能。另外,随着计算机视觉、语音和自然语言处理等人工智能技术的不断进步,虚拟数字人将逐渐具备“看”、“听”、“说”、“懂”的能力。
虚拟数字人逐渐实现在多场景、多领域的融合、应用、落地。尽管目前数字人的发展环境、整体情况还处于尚未成熟的起步阶段,但随着虚拟数字人技术的精进、市场价值的释放,其将更全面、更深入地融入影视、金融、文旅等各个领域,充分发挥应用价值,迸发巨大的潜力。
2、虚拟数字人发展制约因素
目前,制约虚拟数字人产业发展的因素主要有以下几个方面。
政策环境层面,行业依然处于培育期,缺乏政策与资本扶持。一是缺少上下游协作交流平台,制约整体产业化发展。虚拟数字人产业链长,参与主体多,既有大型平台企业、也有中小单位和初创公司,行业沟通成本高。二是行业投资回报周期较长,为数字人产业投资竖立了“无形壁垒”。数字人产业还不完全成熟,投资回报周期较传统技术应用更长,缺乏长期耐心资本来扶持企业成长。由于缺乏资本力量的推动,各产业规模扩张与资源整合的进程相对滞后。
技术应用层面,制作方式自动化程度低、生产门槛高,关键技术还不够完全成熟。目前3D数字人建模依然需要大量的人工制作参与,整体制作效率相对较低,与部分应用场景快速、批量制作的需求并不匹配。此外,在虚拟数字人的关键技术方面,还存在实时面部表情捕捉与还原精准度不足、语音识别在强噪声干扰及远场识别等方面还很难达到实用化要求等瓶颈,需要加大研究力度以提高算法精度。
人才培养层面,技术人才、综合人才极度缺乏,人才供应体系不完善。数字人的技术跨度大,从制作端的美术师、模型师、绑定师、材质师、动作捕捉师、灯光师、特效师、摄像师、导演、特效演员,到技术端的光学工程师、硬件工程师、软件工程师、算法工程师、系统工程师,以及运营端的产品经理、经纪人等每一个环节的人才都很重要,急需一套完善的人才供应体系,特别是跨界人才体系,才能保障产业的良性运转。
标准体系层面,行业内缺乏统一技术标准和体系,产品质量良莠不齐。数字人的产业处于发展初期,制作型公司、技术型公司、运营型公司、应用型公司均已入场,但各企业的技术、产品质量差异较大。通过建立虚拟数字人的技术、产品标准体系,保护优质数字人厂商,促进行业健康发展。
安全伦理层面,相关法律法规和伦理规范尚待完善,存在潜在风险。虚拟数字人技术在发展中会引发一些法律问题和伦理风险,需要提前建立相关制度进行防范。虚拟世界里面的虚拟人物所有权、犯罪行为尚没有法律上的界定。虚拟数字人带来的沉浸式体验可能会对用户的精神、心理状态带来影响,改变用户在脱离虚拟世界后的行为,比如可能会增加暴力倾向,存在一定伦理风险。
金准产业研究团队认为,现在,在AI+5G的加持下,“虚拟数字人”的蓬勃发展才刚刚开始,而这只是第三产业智能化趋势的一个缩影,随着我国产业转型升级的脚步逐渐加速,将会有各种形态的虚拟数字人出现在各行各业。