让数字人出圈的技术秘籍,华为率先公开了
导读:在刚刚结束的 2022 华为开发者大会(HDC2022)上,升级版的手语数字人再次亮相,为大会的主题演讲进行了实时翻译。 相较去年 HDC,手语数字人不仅在形象上有了优化
在刚刚结束的 2022 华为开发者大会(HDC2022)上,升级版的手语数字人再次亮相,为大会的主题演讲进行了实时翻译。
相较去年 HDC,手语数字人不仅在形象上有了优化,覆盖手语词汇量更是提高到了 2 万 +,还能支持多达 26 种面部表情和准确的口动,在需要的时候实现恰当的情绪化表达,大大提高了手语的可懂度。
这样一个会手语的数字人,已不仅限于连续两年在华为开发者大会上 " 崭露头角 " 了。其实在政府网站、学校和移动应用等场景,手语数字人也已经逐渐上岗。
实际上,制作一个精良的数字人并不简单,如果要求高度定制化,技术门槛只会更上一个台阶。
这也导致当下数字人颇有种大厂 " 奢侈品 " 的味道。
毕竟,并非所有人都能承担起如此高昂费用和制作复杂度,以手语数字人为例,需求很大一部分来自于学校、公益机构等。
而在这些现象背后,其实还隐藏着数字人在制作、应用落地方面的一连串难题。
大厂竞速,降低数字人落地门槛
想要探寻数字人的落地瓶颈,还需从它的生产制作流程看起。
制作数字人的流程,可以分为建模、驱动和渲染三个阶段。
建模即搭起数字人的 "基础骨架模型",驱动负责让模型 "动起来像人",渲染则负责让模型 "看起来像人"。
听起来不难,但在传统的数字人制作流程中,每一阶段都面临操作繁杂、算法门槛高、开发周期长的问题,成本更是大型企业才负担得起。
极高的制作门槛,和数字人主打的 " 服务场景 " 却并不匹配。
像银行、政务服务、直播间、景点导览、学校等需求方,往往不具备独立开发制作数字人的技术能力,能承受的制作成本更是相对有限。
这种情况下,不少科技厂商如华为竞相涉足数字人领域的研发,力图降低每个制作阶段的技术门槛。
在建模上,传统方式往往要利用多方位摄像头,对模特们打点扫描,采集说话时唇部、表情、面部肌肉、肢体细节和姿态等身体数据,随后按照需求设计建模,如卡通风、超写实风格等。
BUT,这背后需要的工作量非常大,而且需要专业人员操作。
相比之下,目前已经有更多 AI 算法来降低 3D 建模门槛,也适配不同的数字人风格。
在本次 HDC 上,华为就展示了一套高效的3D 卡通数字人建模服务,能够帮助开发者快速构建自定义的 3D 卡通数字人资产。基于业界前沿的全属性特征识别和多模态基模融合两大核心技术,只需要 1 张照片,AI 算法 1 秒钟就能生成一个活灵活现的卡通风格数字人,甚至连身体都能建模好。
全属性特征识别技术能够对发型、眼形、眉形、胡子和眼镜等面部主要属性迅速而精准地识别,每个部分又可细化到常见的特征,如单双眼皮、卷直发等,实现美与像的平衡。
值得一提的是,这样的神经网络模型非常轻量,大小仅在 KB 级别(不到 1MB),推理时间更是达到毫秒级,大部分情况下识别准确率超 90%;
而如何在毫秒级时间内,仅凭一张照片就 " 拼 " 出最合适的卡通化人脸,同时换上最合适的风格,则是多模态基模融合技术的能力。
依托大量基础几何(1k+)和形状素材(100+),配合百万级的 AI 训练数据,高效建模得以轻松实现。
△卡通化程度和风格可自定义调节与转换
通过 3D 卡通数字人建模服务和 HMS Core 手语服务的配合——无论是热情活泼的手语老师,还是端庄亲和的手语直播主持人,都能快速搞定。
建模完成后就是驱动和渲染了,让模型不仅能像人一样表情自然、肢体动作流畅,还能具备一定语言理解表达能力。
传统平台虽然有动作库、降低人工制作难度,但最复杂的往往是两个动作之间的过渡、以及将语音文本和表情逐帧对应的过程。
目前有大厂已经试图在用算法搞定动作过渡,至于语音文本和表情对应则可以用 AI 算法来降低工作量。
此次 HDC,华为正式发布的 HMS Core 3D Engine,不仅能进行超大规模数字世界的实时渲染,对于数字人的驱动也专门提供了一套能搞定实时骨骼动画、表情动画、脚步 / 全身 IK、布娃娃系统、动画重定向、多重动画融合的 " 工具包 "。
3D Engine 的动画编辑器不仅支持创建多个动作状态机,而且还能对多个角色的动作进行平滑过渡,解决数字人动作之间 " 不流畅 " 的问题。
除了单纯的动作驱动,让数字人具备理解表达能力,同样是决定驱动真实性的一环。
HMS Core 的手语服务,用 AI 算法给数字人打开了 " 手语表达与理解 " 能力。
基于大量深度学习算法,让模型学习语音、唇形、表情参数间的潜在映射关系,手语服务通过 HMS Core 3D Engine 驱动模型在接收到输入信号时,自动做出对应的动作。
建模和驱动之后,就来到最终的渲染部分。
传统方法往往计算量极高,更别提直播场景中常见的实时渲染。
尤其是写实数字人,为避免高时延,实时渲染往往选择牺牲数字人的真实感,包括皮肤、头发和眼睛等部位,想要打造真实感难度非常高,最后往往只能采用 3D 卡通数字人来完成实时直播。
在这种背景下,HMS Core 的 3D Engine 在实现在实时渲染的同时,还尽可能还原写实数字人真实的效果。利用 3D Engine 呈现出来的数字人,不仅能与场景进行实时交互,在皮肤材质、发丝仿真、眼球材质等渲染上也足够细致,这些细节直接影响了数字人的逼真程度。
皮肤材质上通过次表面反射、双叶高光对皮肤的光泽度和通透感实现了增强,呈现出了更自然的皮肤效果。
在发丝上,则是通过实时物理模拟完成 10 万 + 发丝运动,来增强头发的阴影、半透明和高光渲染效果。
眼球还原上甚至精确到了虹膜、瞳孔、巩膜、晶状体折射率等,根据参数进行调整。
整体来说,相较于传统数字人制作流程,从降低门槛、提高易用性等维度出发, HMS Core 提出了一个更为简易的数字人全流程解决方案。
背后技术能力并不简单
其实,面临数字人落地的难题和机遇,国内外不少公司都在投入这一赛道角逐。
这其中既包括苹果、Meta 和英伟达等科技巨头,也有 Neon 和 DATAGRID 等初创公司,凭借自身软硬件优势 " 扩张 " 在数字人行业的版图。
在赛道玩家云集的情况下,华为降低用 " 人 " 成本的底气何在?
一方面,在 AI 等技术上,华为这些年也在不断地进行研究和积累。
据华为介绍,在 NeurIPS 近五年来引用最多的 50 篇论文、以及 ACL 近五年来应用最高的 20 篇论文中,都各自有一篇华为诺亚方舟实验室的论文,同时 ACL 引用最高的 30 篇论文中,更是有 3 篇相关论文。
华为轮值董事长徐直军,此前也透露过华为的 AI 研发数据:仅 2018 一年,华为的 AI 研发投入就达到 15 亿美元,研发团队更是超过 5000 人。
具体到内容上,这些论文中就有不少像多模态技术这类与数字人息息相关的研究。
被 ACM Multimedia 2022 收录的一篇新论文中,华为泊松实验室就联合人大高瓴人工智能学院提出了一种名叫 MMTG 的新模型,意图让 AI 看到图文混杂的输入时能理解它们的关联,并创作出新的文本,进一步提升数字人的表达能力。
另一方面是独特的应用场景优势,作为鸿蒙生态的重要组成部分,HMS Core 提供的一系列全面的端、云开放能力,为数字人在移动端乃至鸿蒙生态上的落地提供了有力的支持。
通过 HMS Core 3D Engine 和手语服务打造的手语数字人,已经开放给畅听无碍、知音等第三方 App 集成接入,实现在手机上的直接使用,为听障人群带来生活的便利。
2700 亿市场如何把握?
事实上,不止手语数字人,目前更多场景都面临着使用数字人的情况。
据《量子位虚拟数字人白皮书》预测,2030 年我国虚拟数字人市场规模将快速增长至 2700 亿。
按需求场景划分,主要有身份型虚拟人和服务型虚拟人。
身份型虚拟人即虚拟偶像、真人人偶分身等,服务型虚拟人的常见应用场景有银行、政务大厅、播音室等。
比如在银行数字化转型趋势下,数字人银行客服通过语音交互,就能以更贴近于传统柜台的方式,提供更加人性化便捷的服务;
还有手语翻译场景,我国听障人群数量达到 2700 万,但专业手语翻译师的数量恐怕还不到 1 万。3D 手语数字人在弥补专业人才缺口的同时,也能快速普及国家通用手语。
目前,我们已经能看到越来越多的数字人开始上岗工作,随着华为等大厂的技术投入,其成本和使用门槛也在进一步降低。
版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/68792.html,如需转载,请注明出处!