- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
从单个RGB相机中学习重建穿衣人物
112
ThiemoAlldieckMarcusMagnorBharatLalBhatnagar
,2,*
22
ChristianTheobaltGerardPons‑Moll
12
计算机图形学,德国TUBraunschweig德国·普朗克信息学研
究所,Saarland信息学园alldieck,magnor@cg.cs.tu‑bs.debbhatnag,theobalt,gpons
@mpi‑inf.mpg.de
图1:我们提出了一种基于深度学习的方法,使用单个RGB相机估计个性化的形状,包括头发和衣物。上图所示的形状仅使
用了8张输入图像进行计算,并使用SMPL进行了重新姿态调整。
1.引言
对于许多应用(如VR/AR、游戏、虚拟试穿和
我们提出了Octopus,这是一种基于学习的模型,可
制作)来说,需要自动获取包括服装和面部细节在内的
以从单目的少量帧(1‑8帧)中推断出个性化3D形
详细3D形状和外观。
状,中人物处于状态,重建精度达到4到5毫
米,同时比之前的方法快出几个数量级。从语义分割图像获取此类模型的常见方法是使用扫描仪或多视角影
中,我们的Octopus模型可以在10秒或更短时间内重建出棚[3,46]。但成本和体积限制了这些设备的广泛应用。
包括SMPL参数以及衣物和头发的3D形状。该模型基于两因此,许多研究工作致力于使用更实用的设置来捕捉人
个关键设计选择实现了快速而准确的预测。首先,通过在体形状和姿态,例如使用少量头[60],或使用一
T姿态空间中预测形状,网络能够学习将人物图像编个或多个深度头,这些方法可以是专门针对的
码为姿态不变的潜在编码,并融合这些信息。其次,基于[9,77,84]或适用于一般的自由曲面
前馈预测速度快但并不总是与输入图像对齐的观察,我们[88,51,54,37,26,70]。最实用但也最具性的设置是
通过前向和后向流(每个视角一个)进行预测,使信息可从单目RGB头进行捕捉。一些方法尝试从单张图像
以在两个方向流动。学习过程仅依赖于合成的3D数据。中推断模型的形状参数
一旦完成训练,Octopus可以接受可变数量的帧作为输入,[41,53,10,24,8,32,86,39,55],,但重建的细节受限于模
并能够以5毫米的精度从单张图像中重建形状。在3个不型的形状空间,因此无法捕捉个性化的形状细节和衣物几
同数据集上的实验结果证明了我们方法的有效性和准确性。何特征。的研究[6,5]通过一段人物在头前旋转
代码地址为[2]。
原创力文档


文档评论(0)