您的当前位置:首页正文

基于胶囊网络的三维网格模型分类方法

2021-07-12 来源:易榕旅网
第60卷 第4期 2021年7月

:/doi10.6043.issn.0438-0479.202012001j

)JournalofXiamenUniversitNaturalSciencey(

厦门大学学报(自然科学版)

Vol.60 No.4Jul.2021

基于胶囊网络的三维网格模型分类方法

(;)宁波大学信息科学与工程学院,浙江宁波3浙江省移动网络应用技术重点实验室,浙江宁波31.152112.15211

2*,郑 阳1,赵杰煜1,陈 瑜1,唐 晨1,俞书世1

摘要:多边形网格作为一种复杂的数据结构为三维物体提供了有效的形状近似表示,但由于网格数据的复杂性和不规

则性,卷积神经网络很难直接应用到三维网格数据处理中.因此,提出一种基于胶囊网络的深度学习方法对三维网格数同时,为解决传统卷积神经网络大量池化层的引入导致的特征丢失问题,针对输入网格模型尺寸大小不统一问题,改进了胶囊网络姿态参数学习方法,通过共享姿态矩阵权值,减少模型参数量,进一步提高了三维网格模型的训练效率.实验在S相比于最新方法M在原始测试HREC15数据集上与传统方法和最新的两种方法进行比较,eshNet和MeshCNN,集上的平均识别准确率提高了3且融合特征后平均准确率达到9经实验验证,在训练时间较.4和2.1个百分点,3.8%.短的前提下,该方法也能取得相当的识别效果.本文所提出的三维网格分类方法,综合了图形学与深度学习方法的优点,有效提高了三维网格模型的分类效果.

据进行有效分类.首先设计一种能够直接在网格表面进行计算的多项式卷积模板,提取三维网格模型的高阶参数特征.

关键词:胶囊网络;池化;三维模型识别;特征提取

()中图分类号:TP391.41 文献标志码:A 文章编号:0438-0479202104-0711-09, 卷积神经网络(convolutionalneuralnetwork

作为目前深度学习技术领域中非常具有代表性CNN)的神经网络之一,在图像分类和语义分割等热门任务上取得了众多突破性的进展.而三维图像数据相比于二维图像包含的信息更为丰富,具有更好的光照不变性和姿态不变性,因此如何将深度学习应用到三维模

]1

型表示,已成为数字几何领域的研究热点[.

行拓扑组合,数据较为复杂,但能够准确表达点的邻域信息,具有表达物体复杂表面的天然优势.由于普通的卷积操作无法直接应用于网格模型,近两年为解

[]

,以2019年Hanocka等4提出网格CNN(MeshCNN)

边为中心定义卷积,将一条边上的两个三角形各自的

决网格模型难以处理问题的深度学习方法逐渐增多.、二面角(此为2维特征向量)内角、三角形的高与底

目前三维模型识别方法的数据格式主要集中在对于点云表示,由于点云数据的无序性,通常的

体素表示、点云表示和三维网格表示.

边的比值作为5维特征向量,通过边折叠进行池化,从而将卷积网络应用到网格结构上.2019年Feng

]5),等[提出网格网络(将三角面片作为最小MeshNet

,通过一个对称函数解决了该问题,但它忽略PointNet

[]

了点云的局部信息.Qi等3之后又提出了PointNet的改进版P添加了与邻居的聚合操作来ointNet++,解决此问题.由于点云数据结构过于简单,对于两个紧凑的非连接局部表面无法单纯通过欧氏距离进行判别,所以无法很好地表示复杂模型.

网格表示作为点、面、边的集合,通过三角面片进

[]网络框架不适合直接应用于点云数据.Qi等2提出

单元,提取其中心点坐标、法向量、邻域多边形索引等

多种特征,设计C在MNN进行分类,odelNet40数据

[]6

集中达到91.9%的识别率.2020年Yang等提出基于网格的卷积框架P通过使用多个方向的平FCNN,行标架场编码曲面上的平面连接来构造一种新的平移结构,保证了卷积的平移共变性,在精细尺度特征学习方面比基于表面的CNN精度更高.2020年

[]7

Wang等提出首个通过风格转换进行网格姿态转换

收稿日期:2020-12-01 录用日期:2021-04-17

)国家自然科学基金( 基金项目:62071260

_*通信作者:zhaoieu@nbu.edu.cnjy

],,:引文格式:郑阳,赵杰煜,陈瑜,等.基于胶囊网络的三维网格模型分类方法[厦门大学学报(自然科学版)J.202160(4)711-719.

:] CitationZHENGY,ZHAOJY,CHENY,etal.3Dmeshmodelclassificationmethodbasedoncasulenetwork[J.JXiamenp

,,():()UnivNatSci2021604711-719.inChinese

:htt∥xmu.xmu.edu.cnpj

·712·

厦门大学学报(自然科学版)

2021年

的方法,通过空间自适应实例归一化(拟图像像素和网格顶点,学习源网格中每个顶点的姿SPAdaIN)来模态特征并使用从目标网格顶点学习的仿射变换对其进行变换,从而有效地将源网格的姿态迁移到目标网

格上类的基础上进行多尺度池化.Qiao等[8]

提出Laplacia,n在池化后使用网格池化

Net,在拉普拉斯谱聚块来利用全局信息,并引入一个相关网络来计算相关矩阵,该矩阵通过与聚类特征的矩阵相乘来聚合全局特征,在果.LitanSyh等ap

[e9]N提出了一种基于学习的方法来完成三

et和COSEG数据集上取得较好的效维图形生成补全.通过训练一个图卷积变分自动编码

器来构造参考形状与隐空间参数,推断时只使用解码器及部分缺失的形状作为输入,并与参考形状对应,重建人体和面部网格上述方法大多采用.

,尽管CN些局限性CN,主N在大多数任务上获得成功N完成分类分割或其他任务,但也存在一要是由于在数据前向传播的过程中,

NN通过诸如最大池化或平均池化之类的操作来获得图像变换的不变性、更紧凑的表征、更好的噪声和

聚类的鲁棒性[10]这些池化操作会丢弃高层特征层其他参数信息和编码特征间的相对位置关系.

,例如对于

图像识别中的“毕加索问题”(具有所有正确部分但不具有正确空间关系的图像),CNN仍旧会识别出

人脸,而不会在乎构成人脸的部位之间的结构关系组成.

为克服CNN中的上述问题,[1

]提出了,用向量特征代替Hinton等1

一种称为胶囊网络的新算法的标量特征,通过类似聚类的方法,对输出向量根据CNN

内积进行多次路由以替换,保存了不同维度的特征信息CNN中的最大池化下采样,并重用其中一些胶

囊的输出,以形成更稳定的高阶胶囊表示[12]保留了特征的空间信息.目前已有实验验证了胶囊网

,更好地

络较面,用于乳腺癌的检测IeC[3]在应用方smNaN在二维图像分类上更具优势1ntas等[14]将基于二进制分类的胶囊网络应.[5]生成式对抗网络(.J[1]g

eaniserwaatl等1

设计了基于胶囊的iveadversarialnetworks,等A[1N7

])将胶囊网络应用于数字媒体取证.Yang等6

将胶囊网络应用到文本域.这些研究证明.Nguy

en胶囊网络在多个领域的有效性,但由于三维网格模型

数据较为复杂,至今还未有胶囊网络应用于三维网格处理中本文提出一种基于胶囊网络的三维网格分类方

.

法(囊网络的应用领域3Dmeshcapsulenetworks,MeshCap

s),以扩展胶ttp:∥j

xmu.x.mMuesh.eCdap

us类似于传统的多层神.cn经网络,可以直接在不规则网格上运行,并且可以通过多层网络结构提取高层特征在表面进行卷积MeshCa通过设计好的卷积模板对网格.

.p由于多项式可有效表达一个曲面且表s中,示方式更为简洁,将卷积核设计为一个高阶方程,窗口内采用多项式拟合曲面方式,将高阶方程参数作为窗口曲面的局部特征,这使得本方法能够按曲面单元来解决网格的复杂性和不规则性问题此外,考虑到三维网格模型输入大小不一致的问.

题,引入共享姿态矩阵权值的胶囊网络,并将胶囊网络的概念扩展到三维网格模型中,其中包括一个用于学习面片.基于这些想法,本文设计了一个网络结构单元特征描述符的多项式模板卷积核以及一个用于聚集相邻隐层特征并分类的胶囊网络边折叠进行卷积池化方法MeshCNN.与最新的基于相比,有望通过改进的胶囊网络在更具表达性的多项式特征下达到更好的分类效果.

二维网格胶囊网络

胶囊网络由多个胶囊层组成,其中胶囊作为一个

独立的逻辑单元,通过向量来表示一个整体或整体的部分的输入输出为矢量形式.传统的CNN输入输出为标量形式,而胶囊网络,其特征向量的每一维都可以表示为一个特征模式(如形变、姿势、反射率、纹理

等),用特征向量的范数表示实体存在的置信度,不仅可以根据统计信息进行特征检测,还可以学习到部件与整体的位置关系并能理解特征向量中维度的表示模式.

胶囊网络在胶囊内部进行大量运算后使用协议路由算法向上输出一个高维向量,从而确保将胶囊输出到下一层对应的高级胶囊式如图1所示,当上一层胶囊将自己学习并预测到的.其单个胶囊内的运算方特征向量ui传递给更高层次的胶囊时,

如果预测一致,其第T次迭代的权重参数ciT值增大,更高级别的胶囊被激活ci.

从而将各种胶囊训练成学习不同维度的单元.随着动态路由机制的不断迭代,更新ui的T,识别出图像的正确类别与CNN的最大池化不同.

,

胶囊网络不会丢弃有关实体在区域内的精确位置信息,在胶囊传递到下一层之前,都要进行一个姿态矩阵W的变换,W通过梯度下降学习参数,以使网络具有多角度标识特征的能力.对于低级胶囊,位置信息被编码,随着层次结构提升,越来越多的位置信息被压缩编码到胶囊输出矢量

C1Gh第4期郑 阳等:基于胶囊网络的三维网格模型分类方法

·713·

图中胶囊输出向量的方向蕴含图像的位置、大小、形状和姿态等特征信息.

Fi.1Calculationprocessincasulegp

图1 胶囊内运算过程

的实值分量中.

2 三维网格胶囊网络

本节将详细介绍M首先介绍整eshCas的设计.p

体的网络架构,根据网格数据的特性,为了直接将卷积应用在网格数据上,同时考虑到参数方程表达的简洁性,将卷积模板设计为参数方程的形式,通过多项式卷积核提取特征重新组织输入数据,根据顶点在局部空间中的相对位置来计算相应的权重值,以捕获网格局部区域精细的几何变化.经过改进的多层胶囊网络结构对融合形状与姿态的特征进行分类.

)卷积特征映射阶段.阶段:以多项式模板作为卷积1

核对整个模型进行特征提取操作,最终生成该阶段的

构成,最终输出用于分类.与普通的胶囊网络相比,

将多项式参数特MeshCas增加了一个胶囊组成层,p征映射到初级胶囊层以提取更具代表性的特征;对于

胶囊层之间的姿态变换矩阵采用权值共享进行训练,不再依赖于输入模型的大小.

本文尝试将一种更具表达性的特征提取方法应用到网络模型中.给定一个三维形变目标的网格模型,以网格模型顶点为窗口中心,采用广度优先搜索获取其前K-1个邻域顶点,选中的顶点和顶点间的

)胶囊网络的训练阶段.卷积特征映射F(X,Y,Z).2胶囊网络由胶囊组成层、初级胶囊层和Mesh胶囊层

2.2 局部形状特征提取

2.1 MeshCas框架设计p

训练分为两个MeshCas网络结构如图2所示,p

N表示窗口曲面数量;K表示曲面内点数量;d表示初级胶囊维度;C表示类别数量.

Fi.2Networkframeworkg

图2 网络框架图

:htt∥xmu.xmu.edu.cnpj

·714·

厦门大学学报(自然科学版)

2021年

边构成连通的局部网格曲面即为局部曲面窗口M其中:

win={Vwin,Ewin},Vwin={vj|(xj,yj,zjE},j=1,win={(va,vb)|va,v)

b∈Vwin}.2,…,K,(其中,x(1

j,yj,zj为点vj的坐标.

2

))首先,为避免刚性变换以及非刚性变换的影响,

在窗口中建立局部坐标系并将窗口内顶点的绝对坐

标转换为局部坐标系内的坐标表示.然后,考虑到窗口内局部曲面较为简单,因此在窗口局部坐标系下采

用高阶多项式对其形状进行描述,如式(Mwin3):是用于描述局部网格窗口形状的连续函数={v|F(xv,yv,zvdθ其中:F,v|)=0}.(3)…,是网格的参数表示向量;;

=(θ0,θ1,θ9)xv,yv和v是局部坐标系下窗口中顶点的相对坐标在实验过程中,当局部窗口尺寸设置得非常小时,网格形状基.

本相同,而当K增加时,窗口中的网格变得更加复杂仅仅通过顶点的局部M进多项式函数的表达.win-估计坐标信息xv,yv和z.

v不足以描述网格形状因此,一般引入测地距离以改.但测地距离的计算较为耗时,会影响整个网络的性能,因此采用街区距离dv=|xv-xm.

dv作为测地距离的近似表达|+|xyv-ym|+|zv-zm|其中,卷积窗口中顶点(,(4)点与曲面单元中心点(x,yy,z)的街区距离表示为该m对于一个网格窗口,m,zm)的街区距离.c=F(x(vv,yv,zv,dv),c|θ)=z-窗口曲面的拟合函数如式,假设窗口中顶点的位置特征

(θ(0+θx+θθd+θ5x)2

:窗口曲面的拟合函数 θ+5y2+θ6d2+θFy+127xθ8xd+yθ9+

yd3).4(5)射F(X连续函数,Y.,Z对局部三角形集合信息进行编码),令其等于(v0c|用于描述局部窗口形状的θ),即为所求卷积特征映,描述面

片的局部形状,捕获网格窗口的形状变换,用于度量拟合误差.z为网格上点的z轴坐标数F便可作为局部网格的近似表示.拟合后的整个函曲面拟合结果如图3所示,蓝色的散点图表示.

网格窗口中顶点的分布,红色的表面表示使用多项式函数拟合的结果差均值Lf.

.拟合误差为面片所有顶点的误LVf=

1K∑vF(xv,yv,zv,dv|θ).(6)在拟合过程中,为避免曲面不同位置与姿态对特征层的影响,首先对网格进行正定操作,使其中心点

与三维坐标系原点对齐,法向量与三维坐标系z轴平

ttp:∥j

xmu.xmu.edu.cn图Fig.3Fitting3o 网格形状与二阶多项式的拟合

fmeshshapeandsecondorderpoly

nomial行(G.方程参数LS

从图)求解4.θ=(θ0,θ1,…,θ9)

通过广义最小二乘法可以看到,每个模型通过窗口滑动卷积后可以用n个参数方程表示,参数θ可以作为该窗口下某片网格碎片的形状特征描述符.同时,为引入曲面姿态信息,在提取网格曲面形状特征后,加入曲面中心点坐标与法向量,使得网络能够学习到曲面的方向信息.

图Fig.4Polyn4o 网格模型多项式特征提取

mialfeatureextractionofg

ridmodel.3 Mesh胶囊网络

传统胶囊网络首先利用卷积层进行特征提取,然后通过胶囊层逐步将其整合成更深层的特征并用于分类结果征,保留有一定的空间信息.但由于在前文中特征提取的结果为浅层特

,且包含语义信息较少,所以在特征提取模块后,加入一个胶囊组成层将方程参数特征向量输出映射到初级胶囊层每个面片表示为一个带有.对于卷积后的特征层,3个一维卷积,不断增加通道数10维参数的多项式通过,提取更高维度

.θzv2h第4期郑 阳等:基于胶囊网络的三维网格模型分类方法

·715·

的特征,同时每个卷积后通过一个归一化层来加快网络的训练和收敛速度如图数决定,取3所示,初级胶囊层的胶囊个数由窗口曲面

.

N的特征向量U,∈每个胶囊维度为Rd.将胶囊组成层得到

N×d映射到初级胶囊层,设U=则每个初级胶囊层的胶囊表示为u(ui)

,iui∈Rd.

,

i=1,2,…,N,胶囊网络中一个更高层次的特征,比如一张人脸,可以通过寻找来自上一层胶囊的路由输出被检测

到ui到父级胶囊即下层胶囊j的预测向量

ij.一个胶囊可以通过将胶囊

i的输出乘一个视角不变转换矩阵Wipj1计算得到数反向传播学习,.参数量Wij的参数通过整体网络的损失函

Wipj1∈R

M×N×d×d示上层胶囊层i的胶囊数量,N为下层胶囊层,其中M表j的胶

囊数量,d为胶囊维度通过姿态矩阵不仅可以学习到实体的组成.

,而且

能够保证三维模型在经过非刚性变换后父胶囊与子组件的姿态信息相匹配囊层间胶囊的全连接,会增加整个网络的参数量从而.但由于该矩阵为两个相邻胶导致运算量过大因此,本文对原始姿态矩阵的参数计算方式进行

.

改进,以获得上层胶囊i到下层胶囊j的预测向量u∧

ijW∈d通过将上层胶囊到下层胶囊之间的姿态矩阵ipj1R的参数更改为权值共享.,即Wpj2数量由RM×N×d×d变为RN×d×

d,使得姿态矩阵参计算量,加快训练速度不同于二维图像,在输入维度上每个模型的大小尺寸.且由于三维网格模型数据及

,从而大大减少了模型的都是不同的,所以此改进使得姿态矩阵W不再受限于上层胶囊数的限定,网络可以适应不同尺寸三维模型的输入后,输出聚类结果.所有输入向量经过同一个姿态矩阵进行映射u∧

ij=Wpjuip为姿态矩阵版本,.其表达式为

,

如上所述,改用p(2共享姿态矩阵7)Wip为初级胶囊层中的姿态矩阵,由反向传播算法.训练.

Mesh胶囊层的输入是对初级胶囊层中所有胶囊

预测向量u∧

ij的加权和:

sj=8

其中cij是动态路由算法确定的∑ciju∧

iij,

u()∧

ij与sj向量相似度的耦合系数c.

ij=

∑expx(pbi(jb)ik),

(ke

9

)其中bij是胶囊i与胶囊j的耦合概率,初始bij设为先

验概率作为衡量一个矢量特征的显著程度.

,胶囊网络通过

一个压缩函数进行归一化,将胶囊值映射到[使得胶囊向量的模长可以代表这个特征的概率0,1],范围同时,保留向量中每一维的特征值,其表达式为

v=squash(s)=1+‖s‖‖s2‖2·s其中,v是胶囊的输出向量,s是向量Mes‖

hs胶囊层的输入‖,(10

)由算法相同.MeshCap

s的动态路由算法与原始公式中的路与预测过程中舍弃了传统胶囊网络中的重构模块及MeshCa.

p

s只应用于三维网格分类,因此在训练重构损失,降低了模型的复杂度,有助于提高模型的训练效率.损失函数为:

LCLoss(L=∑c=0

Lc,

11

)c (=maTcx((0ma,x(0,m+-‖vc‖))2+λ(1-Tc‖v·c‖-m-其中:c是类别;v))2.)

(12)c表示最终输出的胶囊向量T分类的指示函数,如果正确预测了类c否则为0;m+作为上界,

即预测c类存在但真实不存,;则c是

Tc等于1,在并且识别错误;m-作为下界,

即预测c类不存在但真实存在,未识别出来;λ是比例系数,

用于调整c中两者比重.1,λ.

具体参数设置如下:m+=0.9,m-=.

=0.5.

总损失是对C个类的单独损失函数的和 实验及结果分析

为验证本文方法的有效性,在标准三维形变网格模型数据集算机配置为SInHtRelE(C)实验所用计R15上进行实验验证Xeon(R)处理器6.

4GB内存.型H,R每类EC1变换25数据集包括4个模型,

每类模型均有刚体变换和非刚体50个类别1200个三维网格模型作为训练样本.训练分类器时在每类中随机抽取,其余作为测试样本.1 模型细节

.20个三维模

实验基于取模块,随机采样模型Pytorch框架设计,模型先经过特征提积窗口曲面大小为85%的点,以顶点为中心取卷过胶囊组成层,包括1然后通过胶囊维度为352

个,卷积后的多项式参数特征经402的输入胶囊层0维、30维、40维的卷积层,

,

再经过胶囊数量为类别数5.0以、胶囊维度为hMtetsph胶囊层每个胶囊的模长作为

16的输出胶囊层获得最终分类输出:∥j

xmu.xmu.edu.cnT03S3·716·

厦门大学学报(自然科学版)

2021年

模型属于类别的概率获得最终结果.整个网络训练期

,,间学习率最低不小于0批量大小取1使用一个.0010

3.2 分类性能

图形处理器(加速计算,训练总耗时21GPU)58s.

平均准确率达到9与对比SHREC15数据集上,3.8%,

方法的最好结果相比较,提高了2表明.1个百分点,好的结果.

提出的MeshCas可以在三维网格数据分类中得到更p为进一步证明M对比不同方eshCas的有效性,p法的收敛性能,通过图5的曲线可以直观地观察到

为了对比提出方法的分类性能的优越性,本文比

[][]

MeshNet5以及MeshCNN4直接应用深度学习对三维网格分类的方法.表1给出了对于不同数据集类别下的分类结果和平均准确率.可以看出,本文提出的[]8较了基于传统手工特征进行分类的方法S和PH1

在第1MeshCas方法具有较好的收敛性,5轮迭代时p

准确率达到8较早达到收敛拐点及最终收敛6.63%,点,证明了胶囊网络中动态路由对矢量特征进行无监督聚类,使整个网络快速收敛的特性.

%

在MeshCas算法的分类性能高于其他对比的方法,p

Tab.1 ExerimentalresultsofSHREC15p

方法SPH

准确率

alienants

cat

do1handg

表1 SHREC15实验结果

全测试集

mansharksantapliersglassesdo2camelsnake平均准确率g

88.290.491.793.8

MeshNet

87.486.290.489.388.689.190.289.487.189.986.788.187.989.589.689.691.490.590.890.189.888.091.490.590.389.991.291.492.190.290.591.692.790.591.890.492.393.790.392.791.291.992.494.292.893.092.994.190.295.392.395.0

MeshCNN

MeshCasp

Fi.5Thefinalconverencechartofeachmethodgg

图5 各方法最终收敛图

所以仅显 由于SHREC15数据集中的类别过多,

示13个类别的混淆矩阵.从图6可以看出,MeshCasp已经能够识别大多数模型.但是,还有几种识别准确率较低的型号,例如眼镜.我们猜测由于眼镜的尾巴与钳子更相似,在多项式特征提取时,将模型分割为曲面单元,曲面单元形状近似,所以在识别这两种类型的模型时将导致模型具有较高的误识别率.

为了验证MeshCas中卷积窗口大小对结果的影p

图6 SHREC15数据集上的识别混淆矩阵Fi.6ConfusionmatrixonSHREC15g

表示窗口大小,即取不同邻域点数量作为计算单元对分类准确率的影响.

由图7可知,在其他参数取值固定的前提下,最

3.3 卷积窗口大小的影响

优卷积窗口大小在1当窗口大小为40~160范围内.,分类准确率分别为632512和1024时,7.9%,85.7%,这是由于当局部窗口尺寸设置得非常小时,54.3%.

网格形状基本相同,各种网格间的差异性过小,影响

:htt∥xmu.xmu.edu.cnpj

,响,分别将卷积窗口设置为3用于训练,图72~1024

第4期郑 阳等:基于胶囊网络的三维网格模型分类方法

·717·

图Fig.7Exp

eri7m 卷积窗口大小实验

entofconvolutionwindowsize了特征聚类的效果;而当卷积窗口设置过大时,窗口中的网格变得更加复杂,增加了网络复杂度和参数

量,使得网络容易过拟合行实验,因不同数据集.对于该范围内窗口大小进的点数量级不同,对于个计算窗口时分类准确率最高5H2R,E即按广度优先搜索取顶点周围C15数据集实验验证卷积窗口大小最优值为

,达到1351个点作为一

.4 参数量对比

9.8%.

表务的其他代表性方法进行了比较2将网络的时间和空间复杂性与基于分类任

列显示了网络中的参数总数,标记为.标记为FL#OPpsa/rasamms的的列显示了对每个输入样本执行的浮点操作数,分别

p

le代表了空间和时间复杂度网络采用动态路由多次迭代的方式进行特征聚类.其中,MeshCaps由于胶囊,所以在操作数方面较高,但同时也使得整个网络能够快速地收敛,如图达到较高的分类准确率5所示,训练中仅仅几轮迭代就可以.

表Tab.2 Comp2ar 参数量比较试验

ativeexperimentofparasmeStaemr方法(#Params)/106(FLOP/p

le)/106SMPH

2Me4..4245214MeseshshNhCet

CaNp

N

s1533..332432

405969085

.5 影响因素实验

为了验证有效性和分类模块中胶囊网络的有效性MeshCap

s特征提取模块中特征融合的,分别将胶囊网络替换成三层5数据集进行分类准确率对比CNN和LeNet进行试验,在HREC1,Feature+3

层分别为CNN、Feature+LeNet和MeshCaps的分类准确率在采用同样特征方法的情况下89.9%,90.8%,93.8%.

,相比于不同的分

类网络模型,MMeshCa说明性e,s对于复杂数据而言hCaps在SHRECp1s达到93.8%的准确率,,5数据集分类任务上的优越胶囊网络对比多层具有一定的优势.直接对多项式参数特征通过CNN结构CSPN平均准确率也能达到HN进行分类,方法88.2%的准确率,

也进一步验证了特征提89.9%,

3高于层取方法的有效性由于.

结构不同,M网络中无池化操作eshCap

s与MeshC,N而是直接选取顶点按N和MeshNet网络照广度优先搜索方式获取局部曲面作为一个输入单元,所以在训练时通过对顶点随机采样方式进行简

化,当采样点占比分别为90%,95%,100%时平均准70确%率,75依%次,8为0%,85%,85.8%最优采样比为,91.8%,93.8%,89.5%,79.1%,80.487%.

.4%,顶点周围多个点组成85,%采样百分比过高不免出现面片,这是因为一个面片单元由一重叠的现象,影响整个网络训练,而采样比过低模型容易欠拟合.最终选取随机抽样模型总顶点数85%的顶点为输入网络设计中对中心点坐标.

、法向量与多项式参数进行了特征融合,且加入了胶囊组成层用于特征映射,对于胶囊组成层及特征融合的影响做了对比实验,结果如表3所示.

表Fig.33 MInfeshCap

s特征融合与组成层影响实验cloumenpcoesietixop

nerliamyeerntofmoffeesahtucraepsfusionand网络结构

平均准确率/%

无组成层+未融合特征无组成层9组成层++融合特征未融合特征91.2组成层+特征融合

91.9923..38

在不进行特征融合且无胶囊组成层的分类中平均精度仍达到,证明了胶囊网络对于复杂数据模型有一91.2%,高于通过CMNesNhC方法ap

s得到的结果定优势.在融合特征后分类准确率有所提升说明了特征融合的有效性,但其低于有胶囊组成层且未融合特征的准确率,验证了胶囊组成层在整个网络结构中的重要性.

http:∥j

xmu.xmu.edu.cnS133S·718·

厦门大学学报(自然科学版)

2021年

4 结 论

本文提出了一种基于改进胶囊网络的三维网格

模型识别算法三维网格模型,M通过多项式拟合方式提取网格特征参

eshCaps,将卷积直接应用到不规则数,加入胶囊组成层,提取更高层特征,同时改进胶囊网络中的共享权重的姿态矩阵来适应不同模型输入尺寸上的差异,经过训练在原始测试集上达到的平均分类准确率93.8%验证了胶囊网络的有效性.通过与传统C;同时经过与基于网NN网络进行对比实验,格模型的其他深度学习对比,验证了速度上的优势.在后续的研究中,可以进一步开发该MeshCaps收敛网络以用于三维网格分割,或与网格生成算法相结合执行更多计算机视觉任务.

参考文献:

[1] XvIEZG,WANGYQ,DOUY,etal.3Dfeaturelearning[iJa]c.oJnovuorluntailoonaflaCuotom-peuntceord-eArideexdtreDmeesiglenarn&ingCom

macp

huitneer[2] QGrap

hics,2015,27(11):2058-2063.:IpoICintsRet,sSUfor3H,DcMOlasKsi,feictatailo.naPoinndstnetedmeeenptalteiarningo

n[3] QREeEcoEniCtioonnfe.rPeisnccaetaowna:CIoEmEp

EuterV:isg

ionandonP[aCtt]er∥nfIeICRgaturel,eYaILrnin,gSUonHp,oeyitntsal.ePtosi,n2it0naN1e7t++652-6metrid6csee0p.pah

iceera[rCchi]c∥al[4] HSnytsetrenamtiso.nCalCambornifdeg

reen:cMeoITPnrNeesusra,2l0I1n7fo:5r1m0a5ti-o5nP114ro.cessingnetAwNorOkwCKitARhane,HdEeRT[JZ].AA,CFMISTHranNsa,cettial.MeshCNN:a

,[5] 2F0neE1tN9woGY,38(4):1-12.

gonsonGraphicsrk,fFoErN3GYds,hYaOpeUrHep,ertesaeln.tMateisohnNe[tC:m]es∥hnAeAurAal

I[6] Y2C0o1n9fe,r3e3nc(1e)o:nA827r9t-i8fi2c8ia6l.

Intellig

ence.MenloPark:AAAI,IneAurNalGneYtw,oLrIkUsoSn,3PDsANurfHac,eestuaslin.gpPFCarNallNel:cforanvmoelsu[tiCo]na∥l

[7] WREeEcoEg/nCitVioFCn.Poinsfcearteanwceoay:nCIEEoEm,2p

0u2te0rV:13i5s7io8-na135n8dP7.atternsCpaAtiNallGJya,daWp

tEivNeCin,stFaUncenY,eotrmaalli.zNateiuornal[Cpo]s∥IetrEaEnsEf/erCVbyFPiosncfaetraewncaey

:oInCEEoEm,2p0u2t0erV:58i3s1i-o5n8a3n9dP.atternRecog

nition.http:∥j

xmu.xmu.edu.cn[8] QmIeAshOYLeswithl,GaAplOaciLane,YnAcoNdiGJnga,netdaplo.oLlienagrni[

nJg].o

In3EEDE[9] 2TL0rI2aT0nsA(a9cN9tiY)o:n1soO-9,B.

nVisualizationandComputerGrap

hics,RONSTEINA,BRONSTEINM,etal.aDuetfooernmcaobdleesrs[hCap]ec∥IEoEmECpletioonnferweintcheogrnCap

hcomp

ountveorVlutiiosinoanl[10] andPatternRecognition.Piscataway

:IEEE,2018:1886-1895.cZclaaHp

sAssiufNliecGatnieoXtn,wpLoerrUkfoOr[mCaP]n,cHUX,etal.Researchon

∥eoIfnstemranlal-tsiocanlaeldaCtoansfeetrbeansceedoon

n[11] H2R0oI1bN8otT:i2c4s-2a8nd.

ArtificialIntelligence.Piscataway

:IEEE,TransfoOrNmingGauEto,enKcoRdIeZrsH[ECV]S∥KIYnterAna,tioWnAalCNGonfSerenDce.[12] 4oS4nAA-B51rO.

tificialNeuralNetworks.Berlin:Spring

er,2011:bNetweeUncRSap

,FsuRleOsSS[TCN],∥IHINntTerOnNGEational.DCyonnafmeircenrcoeutinogn[13] RMeEIuNHTPralIre,SsnsfoUJ,2r0m,1aL7tiU:o3nH.859PE-rv3oa8cl6eu9ssat.

ingSystems.Cambrideg

:inggeneralizationabilityoficomnavgoeclutliaosnsailficnaetuiroanvlnieattwoorp

k-s2canldascsaifp

iscautlieonnet[EwBor/kOsLfo]r.[14] I[2021-03-08].htts://inEetSwMorAkfNToArcSTlas,psAifL∥icZaBartioUxinTvA.oofSRrgpbr.eCdfaostcn1v9o0l1.10112.p

df.auntcieornalhicsatop

sule[15] amJnaCAdRgesISWec[AoCgLn]it∥IAio,nntA.eBrnatioBeDrliAnL:nSalConfeMpAriGng

EeErD,2re0n1ceIW8,:85mageAnally

osgiy

sW3U-860Y.,etal.Eauprsoupleeagann:CgoennfeerraetinvceaedovnersCaorimalp

ucatep

rsulenVisieotnwor(kE[CCC]V∥)[16] YWnAorNksGhoMps,.ZBHerAlin:Springer,,2018:1-10.CeotnwfoerrkeswnceitohnEdynOmamWiirc,icrYaolMuEJtineeg

thftoal.InvestigatingcaordsteixnNtclaastsuifriaclLation[p

Cs]ul∥e[17] NProcessing.Stroudspburg:ACL,2018:3110-3119.anguag

efioGreUnsYicEsN:uHsinHg,YcaApsMulAeGISneHtIwJork,sECtHoIZEdeNItect.Cafp

osruglee-dPomnAag

ecsouasntdvic:si,dSepoesec[hC]an∥:dSIEiEgEInalnPtreronceastisoinnaglC(

IoCnAfeSrSePnc)e.[18] RisoTUcnG.SSathIaraNwapp

emKaIy

EIhicsaWEtIECEZS,201,9KA23Z0H7-D2A31N1.M,FU,c2h0in0g4,a2n3da(3n)i:s6o2t1r-o6p2y7[

J.].ACMNKTrHanOsaUctSioEnR

s第4期郑 阳等:基于胶囊网络的三维网格模型分类方法

·719·

3Dmeshmodelclassificationmethodbasedoncasulenetworkp

(,,,;1.FacultfElectricalEnineerinndComuterScienceNinboUniversitNinbo315211Chinayoggapgyg

,,)2.MobileNetworkAlicationTechnoloeaboratorfZheianrovinceNinbo315211ChinappgyKyLyojgPg

,,obects.Howeverduetothecomlexitandirreularitfmeshdataconvolutionalneuralnetworksaredifficulttodirectlaltojpygyoyppy

3Dmeshdataprocessin.Considerinhisproblem,weproosedadeeearninethodbasedoncasulenetworktoeffectivelggtpplgmpy

1,12*,1,1,1

ZHENGYanZHAOJieuCHENYuTANGChenYUShushigy

,

:,AbstractAsacomlexdatastructureolonmeshprovidesaneffectiveshaearoximatereresentationforthree-dimensionalppygpppp

,classifDmeshdata.Firstdesinapolnomialconvolutiontemlatethatcandirectlalculateonthesurfaceofthemeshandy3gypyc

,extracttheheihtofthe3Dmeshmodel.Atthesametimeinordertosolvetheroblemoffeaturelosscausedbtheintroductionofgpy,alarenumberofpoolinaersoftraditionalconvolutionalneuralnetworksthecasulenetworkisintroduced.Aimintthegglypga,,roblemofinconsistentsizeoftheinutgridmodelthecasulenetworkattitudeparameterlearninethodisimrovedandthepppgmpweihtoftheposematrixreducestheamountofmodelparametersandfurtherimrovesthetraininfficiencfthethree-gpgeyo

,b.4and2.1percentaepointsandtheaveraeaccuracfterfusionoffeaturesreaches93.8%.Underthepremiseofshorteniny3ggyag

,,thetraininimeafterexerimentalverificationthismethodcanalsoachieveaconsiderablereconitioneffect.Theproosedthree-gtpgpclassificationeffectofthethree-dimensionalridmodel.g

,dimensionalridclassificationmethodcombinestheadvantaesofgrahicsanddeelearninethodsandeffectivelimrovestheggppgmyp

dimensionalmeshmodel.TheexerimentiscomaredwiththetraditionalmethodandthelatesttwomethodsontheSHREC15datapp

set.ComaredwiththelatestmethodsMeshNetandMeshCNN,theaveraereconitionaccuracoftheoriinaltestsethasincreasedpggyg

:;;;Kewordscasulenetworkoolinthree-dimensionalmodelreconitionfeatureextractionppggy

:htt∥xmu.xmu.edu.cnpj

因篇幅问题不能全部显示,请点此查看更多更全内容