|
 hi188| 编辑
! o) N" S9 Y- V+ B, v/ R近期正在韩国首尔国际计算机视觉大会(ICCV)上,一大波的AI研究继而公布,Facebook计划发表40多篇论文,其中我们关注到2D照片下三维场景重建与内容理解,等等3D图像分析的研究。0 k& y4 u# B! Z8 R$ u
这些有什么作用呢,我们知道随着5G技术和千兆宽带的普及,届时的互联网媒介形式势必也会迎来改变,其中以AR/VR体验的三维形态的媒体内容被看作重点方向。
4 {, S2 j) d; W5 Z$ p随着场景形态逐渐向三维转变,届时将会迎来一个高度逼真的虚拟世界,而三维内容的理解也将变得更为重要。例如现在的AI技术可以很好的识别2D照片/视频中的物体、动作等等,而到了三维场景中又会迎来新的玩法。
7 w: \6 O% @1 ] 7 v! r2 ?' M. d! C
Facebook AI研究院今天发布的一篇博客中,着重提到了其在3D内容理解上的努力。0 Y4 S& j$ b2 ?
文章中提到,想要了解周围的世界的前提是,AI必须能够理解三维视觉场景,这种需求不仅仅体现在机器人、导航、AR/VR等方面,甚至在2D照片/视频中也得能够正确识别出其中的一个杯子的三维形状等等。. Q8 s, o$ R/ ]: f' J+ C8 m. s
以下的几项研究,正在以不同但互补的方式来推进三维场景解析技术的发展。
" E N9 O( k \* w; |# K& r+ v# u9 k3 c
- Mesh R-CNN,一种可以精准预测现实环境中2D图像中物体的3D形状的框架,其可以检测复杂的对象,比如椅子腿儿、被遮挡的家具等;* V8 e+ P `0 Y, ~! F
- C3DPO,一种在2D关键点注释中,提取出可变性对象的3D模型的方法,已用于14个类别的对象,通过2D关键点标注实现,无3D标注信息;8 c* D0 o0 S1 y, v
- 通过新方法学习图像像素与3D形状之间的关联,大大降低对注释训练的依赖,从而更接近可以实现更多种类对象3D重建的自我监督系统;% L+ W1 _' ?3 l% d
- VoteNet技术,可在LiDAR或其它3D传感器输入可用时,进行对象检测,该系统完全基于3D点云技术,精度更高。7 T* c$ G$ I9 a+ V
) ^: r4 }9 K* o
, v. [5 k/ _- e# g" ] 如何更好的解析出3D形状- I. i- c3 H( h' [
包括Mask R-CNN在内的很多图像解析AI框架,往往是在2D环境中进行工作,在3D环境下可能并不适用。不过,凭借2D环境中的感知技术作为积累,Facebook重新设计了一个3D对象重建的AI模型。
% { z! O$ A" @4 _# M4 ]该模型的特点是可在现实的场景图片中去预测3D对象的形状,而这其中的挑战在于光学部分,例如:是否有遮挡,是否有杂波以及其它拓扑的对象。5 g4 p/ `( r8 O6 M: x1 ]8 N9 @
为了应对挑战,首先通过网格预测分支加强Mask R-CNN在2D对象分割系统,并构建Totch3d(Pytorch库)从而实现:Mesh R-CNN,其通过Mask R-CNN进行对象的检测和分类。然后通过新型网络预测模型推测3D形状,该预测包含体素预测和网格细化共同构成。$ n6 s9 h, a# I

! s4 z" v1 t" u6 M( @, Y1 e3 ^最后通过Detectron2完成整套框架的结构,即:输入RGB图像--检测物体--预测3D形状的过程。) Y/ q' q9 P o& O- [
据悉,Facebook的新型方法支持成对图像和网格的完全监督学习预测3D形状,为了进行训练,Facebook还是用10000对图像和网格组成的Pix3D数据集,这个数据集比其它训练数据集(通常10万个图像、需进行标注)要小很多。
; i) ]; F/ N- V; ?7 ? b2 b& |最终在两个数据集上进行Mesh R-CNN的评估,效果比较理想。在Pix3D数据集上,能够检测所有类别对象,并能预测出被遮挡的家具的完整形状;而在ShapNet数据集上,体素预测和网格细化的混合法比以前要好7%。
K% Q, C$ \2 }4 t& ]/ [ $ L. U2 q- u6 M" G* g" G$ q% |
准确预测、并重建现实世界中无约束的场景形状,无疑是增强未来AR\VR等其它类似体验的重要工作。联想到Facebook在今年OC6公布的共享空间和3D重建体验,以及未来面向AR和机器视觉等众多体验的合集LiveMap,这些都是技术的基础。: l" @! d c/ D* [# D/ |/ a
尽管如此,和2D图像相比,3D图像在收集注释数据的工作上要复杂得多,且更为耗时,这也是3D形状预测数据集比2D对应数据集进展要落后的原因,而接下来Facebook也在探索更多不同的方法,利用监督学习和自我监督学习来重建3D对象。
r/ l3 h" Q# d, [# w" [使用2D关键点重建3D对象类别, Y$ q' y$ B/ E6 E6 O5 D* h) q
对于那些无法使用网格和图像训练、且无需完全重建静态对象/场景的案例,Facebook开发了一种新的代替方案:C3DPO,其通过大量丰富的2D关键节点数据,进行监督学习实现更好的重建结果。而C3DPO以弱监督的方式解析出3D几何形状,且被证明适合大规模部署。
$ d* [9 k2 \' j) E: g; \! }& s. A4 J0 H% m/ H3 z
其中特定部分(例如人体关键、鸟翅膀)的2D关键点,成为了该方法中重新构建对象几何形状、变形或视点变化的线索。这些3D关键点利用价值也很高,例如在VR中创建逼真的面部和全身网格模型时。5 y& v8 n0 c5 V$ ?% r
简单来讲,C3DPO是一种能重建包括数十万具有上千个2D关键点的数据集方法,并且针对三种不同的数据集、14种以上的非刚性物体类别,进行精度重建。另外,和Mesh R-CNN类似,C3DPO同样支持那些有遮挡或部分缺失图像。
" P% t/ u1 |" A而C3DPO模型还具备两个创新,一是,在给定一组单眼2D关键点的情况下,C3DPO将以标准方向预测相机视点的参数和3D关键点位置;二是,Facebook提出一个新的正则化技术,其包括与3D重建网络模型共同学习的第二个辅助深度模型,它解决了因分解3D视点和形状带来的冲突。正是基于这两项创新,才是C3DPO的方法比传统的数据统计模型表现更好。
4 j/ s4 m+ F$ C根据Facebook描述,这种3D模型构建在以前是无法实现的,主要由于此前基于矩阵式分解的方法有很多限制,与C3DPO采用的深度网络模型不同,其能够“小规模”运行。为了解决3D重建带来的变形问题,此前往往通过同一时间多张图像合成解决,这对硬件要求更高,而C3DPO则可以在硬件无法进行3D拍摄(例如飞机等体型特别大的物体)的情况下实现3D重建。( l( [3 N( y, B2 x
另外还有从图像集学习图形像素与形状的映射关系,以及提升3D系统中对象检测能力的两个论文本文不再解读,感兴趣可阅读原文了解。
) W3 p7 o2 K* U) c# Y8 {总而言之,3D计算机视觉领域还有很多值得探究的领域,还有很多问题尚未被解决,还需要像此前进行2D计算机视觉探索那样继续前行。随着数字世界的不断推进,我们将会转向使用3D照片、AR、VR等技术,因此未来需要更准确的理解场景中对象、交互动作等一系列复杂的问题。Facebook表示:能够开发出向人类一样理解现实世界,并与之互动的AI系统是其长期目标。诚然,这就需要不断缩小物理空间和数字化的虚拟空间之间的隔阂与距离,而在3D视觉方面就还有很多工作需要大家共同努力。
7 Q! z$ q1 m2 n0 h1 H. I% A2 W$ ^3 A2 {随着数字世界的不断推进,我们将会转向使用3D照片、AR、VR等技术,因此未来需要更准确的理解场景中对象、交互动作等一系列复杂的问题。7 x8 b1 F3 Y2 S
Facebook表示:能够开发出向人类一样理解现实世界,并与之互动的AI系统是其长期目标。诚然,这就需要不断缩小物理空间和数字化的虚拟空间之间的隔阂与距离,而在3D视觉方面就还有很多工作需要大家共同努力。! @3 h6 \/ g: v: e9 I& M
参考:% d8 J4 E1 @3 Z" Z0 `, c6 g
https://ai.facebook.com/blog/pushing-state-of-the-art-in-3d-content-understanding/$ l" p% C- r' }4 K& r
(END)
& @& R$ L5 I+ F" F8 a3 A3 Z3 k6 ]) e* o& b$ J& m1 [1 @+ p
推荐阅读 & { e$ P0 U1 k1 N6 x3 }1 G9 A
8 w: d4 K! {0 s& ?3 [

% P$ U/ E. A6 ?, b Q, n
9 x8 p0 J) q" h \6 O
4 j' S% Y& {$ `+ R9 S- N) X% f7 j. p9 t
* _) `3 m' s' D" \% S: e. u6 d
, _$ A' B- O7 h* x* {
- ^& G3 S7 ]& B) D
6 q/ O6 _8 E2 _ 每天五分钟,轻松了解前沿科技。 - E9 J3 b, q1 {& y& R, y* i
—— 青亭网  ; c6 P# G5 c% s( S
来源:http://mp.weixin.qq.com/s?src=11×tamp=1572444005&ver=1944&signature=Nb57qrD6cXqllnhJvEE6H6occUi*WX3i2MU6ToOnegiW6vhKPmdGUN4DuPLvPk3UGjMXyZcIIma3RpHXHPcUaJQxDFHSnOz9N*hHRaEl1BiKeHC0O4YFvbD8CwX78lCz&new=1
8 H# b, B( v! L* C7 C免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|