生态学报  2021, Vol. 41 Issue (12): 4685-4693

文章信息

史春妹, 谢佳君, 顾佳音, 刘丹, 姜广顺
SHI Chunmei, XIE Jiajun, GU Jiayin, LIU Dan, JIANG Guangshun
基于目标检测的东北虎个体自动识别
Amur tiger individual automatic identification based on object detection
生态学报. 2021, 41(12): 4685-4693
Acta Ecologica Sinica. 2021, 41(12): 4685-4693
http://dx.doi.org/10.5846/stxb201912232768

文章历史

收稿日期: 2019-12-23
网络出版日期: 2021-04-21
基于目标检测的东北虎个体自动识别
史春妹1,2 , 谢佳君1 , 顾佳音2 , 刘丹3 , 姜广顺2     
1. 东北林业大学 理学院, 哈尔滨 150040;
2. 国家林业和草原局猫科动物研究中心; 东北林业大学 野生动物与自然保护地学院, 哈尔滨 150040;
3. 东北虎林园, 哈尔滨 150028
摘要: 东北虎个体的自动识别是种群数量评估和制定有效保护策略的重要基础。以东北虎林园和怪坡虎园38只虎为研究对象,将目标检测方法首次应用到东北虎个体识别研究中,采用多种深度卷积神经网络模型,以实现虎个体的自动识别。首先通过相机在不同角度对38只东北虎进行拍摄取样,建立包含13579张图像的虎样本数据集。由于虎的体侧条纹信息不具有对称性,所以运用单次多盒目标检测(Single Shot MultiBox Detector,SSD)方法,对虎的躯干左侧条纹、右侧条纹以及脸部等不同部位图像,进行自动检测并分割提取,极大节省手工截取时间。在检测分割出的左右侧及脸部不同部位图片基础上,运用上、下、左、右平移变换进行数据增强,使图片数目扩大为原来的5倍。采用LeNet、AlexNet、ZFNet、VGG16、ResNet34共5种卷积神经网络模型进行个体自动识别。为了提高识别准确率,运用平均值和最大值不同组合方式来优化池化操作,并在全连接层引入概率分别为0.1、0.2、0.3、0.4的丢弃(Dropout)操作防止过拟合。实验表明,目标检测模型耗时较少,截取分割老虎不同部位条纹能达到0.6 s/张,远快于人工截取速度,并且在测试集上准确率能达到97.4%。不同姿态下的目标部位都能正确识别并分割。ResNet34模型的准确率优于其他网络模型,左右侧条纹以及脸部图像识别准确率分别为93.75%、97.01%和86.28%,右侧条纹识别准确率优于左侧条纹和脸部图像。研究为野生虎自动相机影像的识别提供技术参考。在未来研究中,对东北虎个体影响数据进行扩充,选取更多影像数据进行训练,使网络具有更强的适应性,从而实现更准确的个体识别。
关键词: 东北虎    个体自动识别    目标检测    
Amur tiger individual automatic identification based on object detection
SHI Chunmei1,2 , XIE Jiajun1 , GU Jiayin2 , LIU Dan3 , JIANG Guangshun2     
1. School of Science, Northeast Forestry University, Harbin 150040, China;
2. Feline Research Center, National Forestry and Grassland Administration, College of Wildlife and Protected Area, Northeast Forestry University, Harbin 150040, China;
3. Siberian Tiger Park, Harbin 150028, China
Abstract: The automaticly individual identification of Amur tigers (Panthera tigris altaica) is important for population monitoring and making effective conservation strategies. In this paper, we applied the object detection method and deep convolutional neural network models to individual identification with the images of 38 Amur tigers in the Northeast Tiger Forest Park (West 126°36', North 45°49') and Guaipo Tiger Park (West 123°37', North 42°4'). Firstly, the Canon EOS 200D camera was used to establish the data set containing 13579 pictures of Amur tiger from different angles. Since the tiger's body stripes of two sides are not symmetrical, single shot multibox detector (SSD) was used to automatically intercept and distinguish the left and right body stripes as well as the face of tiger, which greatly saved the time of manual interception. On the basis of the interception image results, the data were enhanced to 5 times by the up, down, left and right transformation. Then, LeNet, AlexNet, ZFNet, VGG16 and ResNet34 were used for individual identification. Furthermore, the pooling model was optimized by using different combinations of average pooling and maximum pooling, and the dropout operations with probabilities of 0.1, 0.2, 0.3 and 0.4 were introduced to prevent overfitting. The experiment shows that the target detection model in this study takes less time than manual interception. It can intercept and segment the stripes in different parts of the tiger with 0.6 seconds for one image, which is much faster than manual interception, and the accuracy rate on the test set can reach up to 97.4%. The target parts can be correctly identified and segmented for Amur tiger images with different kinds of positions. Finally, based on the experiment results, we found that the accuracy of ResNet34 is better than that of other network models. The recognition accuracies of left, right stripe and face images are 93.75%, 97.01%, and 86.28%, respectively. The recognition accuracy of right stripes is better than left stripes and face parts. This study can provide technical support for automatic camera image recognition of wild tigers. The method in this paper can be applied to the identification of individual in the species which have distinct streaks or spots on the body. In the future work, the image dadaset of individual Amur tigers will be expanded and much more image data will be selected for training set so as to make the network more adaptable and realize more accurate individual identification.
Key Words: Panthera tigris altaica    individual automatic identification    object detection    

东北虎(Panthera tigris altaica)种群数量的有效评估和监测已成为保护生物学以及相关领域研究人员关注的重要课题[1-3]。由于虎种群密度低, 具有领域性, 夜行性及隐蔽性等行为特点, 在监测过程中很难发现其实体, 红外触发相机陷阱技术[2-3]作为一种无损伤性方法在国内外野生动物调查中应用越来用广泛, 技术较为成熟, 操作方便, 可以获得大批量(百万张图片)的野生动物影像资料。但是, 这些影像图片或视频需要专业人员进行人工分类和个体识别, 耗费大量的时间和人力。因此, 对虎的图像进行自动、准确、批量的个体识别研究非常有意义。

东北虎个体识别是指通过个体之间的特征差异来进行区分, 现在常用的个体识别方法有足迹识别、DNA识别、气味识别以及条纹识别[1]。Riordan等[4]利用自组织映射和贝叶斯方法对虎和雪豹(Panthera uncia)采集的脚印进行个体辨别和评估, 获得了较高的准确率。DNA识别方法主要从虎的粪便、毛发、唾液等提取DNA进行识别[5]。Mills等[6]通过非损伤性取样分析DNA样本, 对东北虎的个体数量、性别以及亲缘关系进行鉴别。气味识别[7]主要依靠经过特殊训练的狗辨认老虎粪便气味来识别老虎个体。条纹识别是通过相机拍摄的条纹特征来识别, Hiby等[8]通过计算图像样本之间的相似性得分, 对虎的三维表面模型图像进行搜索匹配实现个体识别。虎的条纹和人类指纹一样具有唯一性特点, 且不随生长而变化, 所以通过其身体不同区域(躯干、前腿、后腿、尾部等)条纹的对比进行个体识别, 是目前区分东北虎个体的主要方法。但是, 此方法以经验丰富的专业人士人工识别为主, 需要耗费大量人力与时间, 并且人工识别依赖操作者的经验, 主观性大。个体数目较多的话, 人工进行条纹个体识别可行性较低。

红外照相技术在物种监测中被广泛应用, 通过红外触发相机可以获得大量的动物形体特征图像[9]。在小种群或种群高度分化的地方, 人工对新旧照片的比较可以确定个体, 但是如果图像样本数目较多或者种群数量较大, 人工比较的方法可行性较低[10]。以往的研究中, 无论是采用神经网络识别东北虎[11], 还是基于Cifar10识别金钱豹(Panthera pardus)[12], 都是人工截取条纹, 难以应用于图像数目较多的大数据场景当中。

近年来, 深度卷积神经网络(Convolutional Neural Network, CNN)[13-18]在计算机视觉以及目标检测领域[19-25]表现较为出色, 在大数据场景[26-31]中的动物物种分类方面也得到广泛应用, 具有代表性的网络模型有ZFNet[14]、VGG[15]、GoogLeNet[16]、ResNet[17]、DenseNet[18]等。2012年, AlexNet对ImageNet数据集进行分类识别, 准确率为84%[13], 远超过非深度学习方法的75%。2017年, Thom等[26]创建了一个物种检测数据集, 其中包含8000个图像, 涵盖9种不同物种, 并运用SSD以每秒21帧的速度自动检测北极苔原地区动物, 准确率为94.1%。2017年, Cheema等[27]使用Faster-RCNN可以自动从图片中提取出虎、斑马(Equus burchelli), 并且用AlexNet结合逻辑回归能够较好地实现物种分类。2019年, Willi等[20]采用深度学习对四种不同的相机陷阱数据集进行分类识别, 得到识别准确率介于88.7%和92.7%之间。Norouzzadeh等[30]基于非洲塞伦盖蒂野生动物数据库应用深度卷积神经网络实现了物种的自动分类、数目检测、行为描述等, 并且分类精确度较高, 达到92%。

到目前为止, 深度学习方法大多用在物种分类研究当中, 对物种的个体识别较少, 特别是东北虎的个体识别。非深度学习的方法在识别阶段工作量都较大, 数据的预处理阶段依赖人工截图, 所以本文采用SSD目标自动检测方法来替换人工截图, 节省更多时间。由于卷积神经网络对图片的尺度、光照、视角、形变等因素变化都有较好的处理能力, 拥有自动适应虎形态变化的特征表达能力, 所以本文采用多种深度卷积神经网路模型对不同姿态的个体实现自动识别。由于虎的身体两侧条纹信息无对称性, 本文提出依据不同的体侧部位如左侧躯干条纹区域, 右侧躯干条纹区域以及脸部的自动检测分割方法, 然后对不同部位的图片信息分别运用LeNet、AlexNet、ZFNet、VGG16、ResNet34卷积神经网络模型进行个体自动识别, 从而提高识别准确率, 以实现东北虎个体的自动识别。

1 材料与方法

实验数据来自2019年东北虎林园以及怪坡虎园的影像图片, 其中东北虎林园(东经126°36′, 北纬45°49′)位于黑龙江省哈尔滨市松北区, 面积约为144万m2, 有700多只人工饲养繁育的纯种东北虎, 怪坡虎园(东经123°37′, 北纬42°4′)位于辽宁省沈阳市沈北新区, 面积约为17万m2, 大约100余只纯种东北虎。实验影像图片由相机对38只虎在不同角度、不同环境下拍摄取样, 共得到13579张图像样本, 其中4/5作为训练集, 1/5作为测试集。不同虎个体之间的图片数量有所差异, 姿态丰富, 如果采用人工识别, 费时费力, 且准确度较低。主要方法分为两大部分:第一部分目标检测, 主要通过SSD目标检测方法自动截取分割获得东北虎左右侧躯干条纹以及脸部图像;第二部分个体识别, 在目标部位检测分割图片的基础之上, 采用多种深度卷积神经网络模型实现虎个体的自动识别。

主要技术路线(图 1)为:首先在目标检测部分, 本文采用SSD目标检测方法对每张图片中的东北虎个体检测其左侧、右侧或者头部在图像中的具体位置, 用参考框分割裁剪得到左侧、右侧或者头部对应区域图片, 并去掉背景等无关图像信息。对于卷积神经网络来说, 虎的样本数目较少, 小样本可能出现过拟合现象, 所以在图片预处理部分通过适当平移变换增加样本数目, 以实现数据增强。具体的平移方式是将每张图片沿上、下、左、右四个方向进行平移变换(图 1), 使样本图片数目扩大为原来的5倍。在目标部位检测分割的基础之上, 针对不同部位图像分别使用LeNet、AlexNet、ZFNet、VGG以及ResNet34卷积神经网络模型进行个体自动识别, 并计算个体识别准确率。在准确率较高的网络基础之上考虑平均值池化和最大值池化等组合方案, 并在全连接层引入不同概率的丢弃操作来防止过拟合, 进一步提高识别准确率。

图 1 东北虎不同部位检测分割技术路线图(以脸部为例) Fig. 1 Illustration of detection and segmentation process for different parts of amur tiger (face)
1.1 防止过拟合的方法

神经网络在实际训练时, 可能会在训练集上损失率较低, 但却在测试集上存着着较高损失, 这是神经网络过拟合于训练集的表现, 本文采用数据增强和引入不同丢弃概率来防止过拟合。数据增强的方式有平移变换、旋转变换、尺度变换和反射变换等。合适的平移变换能够在一定程度上模拟拍摄东北虎的位置角度变化, 增强有限的数据集。

引入适当的丢弃概率也能有效防止过拟合, 其输出为:y=r×a(WTx), 其中x=[x1, x2, ..., xn]T是全连接层的输入, WRd×n是权重矩阵, r服从参数为P的伯努利分布。本文将参数P设置不同的值分别为0.1、0.2、0.3、0.4, 有效防止过拟合现象。

1.2 单次多盒检测(Single Shot MultiBox Detector, SSD)方法 1.2.1 确定参考框

SSD目标检测方法与Fast-RCNN[24]的候选区域网络技术类似, 由大小不同的参考框(滑动窗口)来检测定位图片中的目标位置以及大小。SSD主要在特征图的像素点生成多种不同长宽比的参考框来检测不同尺度大小的目标。初始参考框包含三种面积(128×128, 256×256, 512×512), 每种面积又包含三种长宽比(1∶1, 1∶2, 2∶1)。其次计算每个参考框和真实目标框中重叠的面积与总面积的比值(并交比)。最后参考框匹配, 如果参考框的并交比大于设置的阈值(如0.5), 那么参考框会被标记为正例, 否则会被标记为负例。

1.2.2 计算损失函数

目标损失函数为定位损失与置信损失的加权和:

通过交叉验证, 权重项α设置为0.06, 其中定位损失为预测框与真实目标框之间的损失:

置信损失可以是逻辑损失函数:

式中,如果第i个参考框与类别p的第j个目标框匹配xijp=1, 否则xijp=0。

1.2.3 预测

先根据置信度大小淘汰一部分置信度较低的预测框, 再通过非极大值抑制算法, 淘汰掉重叠度较大的预测框, 最终留下的预测框就是虎的两侧或者头部在原始图像中的具体位置和大小的检测结果。

2 结果与分析 2.1 目标检测

本文采取基于SSD目标检测方法, 对不同部位的图像信息进行检测和分割。首先挑选120张包含完整脸部、左侧条纹以及右侧条纹的图像(每种40张), 利用labelImg标记程序从图片中标出脸部、左侧条纹以及右侧条纹部位。然后按1∶1∶1将其分为训练集、验证集、测试集。最后用SSD和VGG16做迁移学习, 从而得到专门提取老虎脸部、左右侧条纹的目标检测模型。实验结果发现, 目标检测模型在测试集上准确率达到97.4%, 能较好地检测并分割出脸部、左右侧条纹等不同部位的图像(图 2, 其中彩色框部分是左侧和头部检测结果)。

图 2 东北虎不同部位检测结果图 Fig. 2 Detection results of different parts of the amur tiger

最后将训练好的目标检测模型应用于全部图像样本中, 进行左右侧躯干条纹以及脸部的检测, 每张图片只保留概率最大的老虎部位检测结果, 并自动进行分割裁剪, 部分结果如图 3所示, 由于虎的姿态多变以及拍摄角度不同, 所以自动裁剪之后的图片大小并不相同。从图 2图 3可以发现, 不同姿态下的目标部位都能正确识别并分割, 说明SSD目标检测算法对图片的尺度、光照、视角、形变等因素变化都有较好的处理能力。

图 3 虎左侧躯干、右侧躯干以及脸部部位自动分割裁剪结果图 Fig. 3 Segmentation results of the left and right body and the face of amur tiger
2.2 个体识别 2.2.1 数据预处理

在自动检测算法截取分割得到的不同部位图片基础之上, 通过平移变换来进行数据增强。这样可以模拟拍摄位置的平移变化, 增强模型的泛化能力, 从而达到数据增强的目的。对数据增强后不同部位如左侧、右侧以及头部图像, 分别应用LeNet、AlexNet、ZFNet、VGG、ResNet34深度卷积神经网络模型在Keras上进行个体识别实验。通过Reshape操作将所有输入图像调整为224×224像素, 激活函数修改为ReLU函数;使用Keras生成器进行加载, 采用随机梯度下降算法, 类别数量为38(38只虎个体)。最后获得不同网络模型的识别准确率(图 4)。从图 4可以看出无论左侧、右侧, 还是脸部, ResNet34模型表现最佳, 其他网络模型的准确率低于ResNet34。

图 4 东北虎不同网络模型的左侧、右侧以及脸部图像个体识别准确率变化图 Fig. 4 Individual identification accuracy results of different networks for left, right and face images of amur tiger
2.2.2 不同池化方式的实验

本文将最大值池化和平均值池化进行多种组合, 评估比较各个组合方案的性能, 以获得最佳的池化组合方式。通过上一步实验可以分析出ResNet34性能最佳, 利用最大值和平均值不同池化操作算子, 对ResNet34进行如下修改, 将第一个池化层和最后一个池化层分别修改为:最大值平均值池化(Maximum Average, MA)、平均值平均值池化(Average Average, AA)、平均值最大值池化(Average Maximum, AM)、最大值最大值池化(Maximum Maximum, MM)组合方式, 得到四个实验组分别为MA、AA、AM和MM, 不同池化方案的准确率变化如下图(图 5)所示:

图 5 东北虎左侧、右侧以及头部图像在ResNet34网络框架下不同池化方案的准确率结果 Fig. 5 Accuracy results of different pooling schemes under the ResNet34 network for left, right and face images of amur tiger

图 5可以发现, 对于脸部图像, AA的准确率明显优于其他模型。而左、右侧条纹, 各个模型性能差异较小。最终, 对于虎的左侧条纹和脸部样本, AA表现总体略优于其他网络模型, 对于虎的右侧条纹样本, MA的准确率略高于其他模型。对于左侧和脸部, 我们选取AA网络, 对于右侧选取MA网络, 进行不同丢弃概率的实验。

2.2.3 不同丢弃概率实验

引入丢弃操作也是防止过拟合的方式之一, 本实验考虑不同丢弃概率对准确率的影响, 选出准确率较高的丢弃概率。基于表现较好的池化组合, 在全连接层网络之前引入丢弃操作, 其概率分别为P=0.1、P=0.2、P=0.3、P=0.4。对于左侧和脸部, 我们选取AA网络, 对于右侧选取MA网络, 在每个网络的全连接层网络之前引入丢弃操作, 其概率分别为P=0.1、P=0.2、P=0.3、P=0.4, 最终的准确率如表 1所示:

表 1 不同丢弃概率下的准确率结果 Table 1 The accuracy results of different dropout probability for left, right and face images
准确率Accuracy P=0 P=0.1 P=0.2 P=0.3 P=0.4
左侧Left 0.9274 0.9375 0.9032 0.9004 0.9274
右侧Right 0.9623 0.9616 0.9701 0.9342 0.9435
脸部Face 0.8523 0.8513 0.8628 0.7954 0.8471

表 1能够发现, 无论左侧、右侧还是脸部, 不同丢弃概率的神经网络都能达到较高的准确度, 并且引入不同概率丢弃操作能够进一步提升识别准确率。对于左侧样本, P=0.1的网络准确率都优于其他概率下的网络, 对于右侧和脸部样本, P=0.2的网络准确率都优于其他概率下的网络。最终, 在最佳丢弃概率下, 左侧躯干条纹识别准确率为93.75%, 右侧躯干条纹识别准确率为97.01%, 脸部识别准确率为86.28%。

3 讨论

本论文以东北虎林园以及怪坡虎园38只圈养东北虎影像数据作为研究对象, 首先以SSD目标检测方法为基础, 从虎的图片样本中检测出不同部位, 分别为左侧躯干条纹、右侧躯干条纹以及脸部部位, 并提取分割出不同部位图片。在分割出的老虎不同部位图片基础上, 运用上、下、左、右四个方向的平移变换进行数据增强, 使得图片样本数目扩大为原来的5倍。其次, 对于不同的深度卷积神经网络算法如LeNet、AlexNet、ZFNet、VGG、ResNet34, 利用网络模型自动地学习从输入到输出的复杂映射方程以及特征的高层表达模式, 进行东北虎的个体识别。并对网络中的平均值池化和最大值池化不同的组合方案进行优化, 引入概率分别为0.1、0.2、0.3、0.4的丢弃操作来防止过拟合。最终实现对东北虎个体的自动识别, 建立较为完整的东北虎个体信息数据库和个体自动识别框架。

目前利用卷积神经网络实现物种的自动分类研究较多, Yu等[28]使用了稀疏编码空间金字塔匹配来识别18种动物, 达到82%的准确率。Gomez等[29]采用深度CNN对非洲塞伦盖蒂野生动物数据库的26个野生物种进行分类研究。准确度达到57%。Norouzzadeh等[30]基于同样的非洲塞伦盖蒂野生动物数据库应用深度学习实现了物种的自动分类、数目检测、行为描述等, 并且分类精确度达到92%。但是应用卷积神经网络进行动物个体的自动识别研究相对较少, 特别是东北虎的个体自动识别。

以往的基于条纹的个体识别算法, 条纹截取常常是人工进行[11], 耗费大量的时间, 人工手动截取速度约为10 s/张。而本研究的目标检测模型耗时较少, 截取分割老虎不同部位条纹能达到0.6 s/张, 远快于人工截取速度, 并且在测试集上准确率能达到97.4%。不同姿态下的目标部位都能正确识别并分割, 说明SSD目标检测算法对图片的尺度、光照、视角、形变等因素变化都有较好的处理能力。

由于虎的条纹具有唯一性特点, 且不随生长而变化, 而虎的左右侧身体条纹不具有对称性[1, 11], 所以本文考虑了三个部位左侧躯干条纹、右侧躯干条纹以及脸部的识别, 从不同部位的识别准确率来看, 识别准确率为93.75%, 右侧条纹识别准确率为97.01%, 脸部识别准确率为86.28%, 说明右侧条纹的识别准确率最高, 其次是左侧条纹, 最后是脸部。由于大多数虎的脸部正面拍摄图像较少, 且距离较远有一定程度模糊, 故脸部识别准确率较低。事实上, 也可以通过虎的后背图像特征进行个体识别, 但是由于背部图像拍摄难度较大, 需要将照相机放置于虎舍顶部, 而虎会对相机扑咬损坏, 难以获得背部图像, 没有对背部进行个体识别。

对于不同的池化方式, 最大值与平均值池化计算量相差不大, 但是它们选取的特征会有很大的不同, 才会导致有的神经网络能收敛到较高的准确率而有的却不能。另一方面, 引入不同的丢弃概率, 在训练过程中动态调整权值的丢弃概率, 使得特征提取能力高的神经元有更大的概率被激活, 提高网络的特征提取能力, 进一步提高了识别准确率。

本次研究缺点在于所选取的样本数量较少, 如果对东北虎个体数目进行扩充, 选取更多影像数据进行训练, 可以使训练网络具有更强的适应性, 从而实现更准确的个体识别。

由于SSD目标检测和卷积神经网络模型对图片的尺度、光照、视角、形变等因素变化都有较好的处理能力, 拥有自动适应条纹或者斑点等形态变化的特征表达能力, 因此, 这一方法能够应用于身体有明显条纹或者斑点信息的物种个体识别, 如虎、豹或者斑马等。

4 结论

本研究提出了基于目标检测的东北虎个体识别方法, 应用单次多盒目标检测算法将虎按照左侧躯干条纹、右侧躯干条纹以及脸部进行分割提取, 其次在不同部位上分别采用不同卷积神经网络来实现虎的个体识别。在未来的模型训练中, 将东北虎个体数目以及单个个体的图像数目进行扩充, 通过扩大数据集以及图像数目防止过拟合, 进一步提高模型的准确率和稳定性。另外, 本研究在未来野生虎的红外相机影像的自动识别方面也具有一定的应用潜力, 为野生动物个体自动识别研究提供新的技术手段和研究思路。

参考文献
[1]
顾佳音, 刘辉, 姜广顺. 东北虎(Panthera tigris altaica)个体识别技术研究进展. 野生动物, 2013, 34(4): 229-237, 248-248. DOI:10.3969/j.issn.1000-0127.2013.04.012
[2]
张常智, 张明海, 姜广顺. 中国野生东北虎数量监测方法有效性评估. 生态学报, 2012, 32(19): 5943-5952.
[3]
Villa A G, Salazar A, Vargas F. Towards automatic wild animal monitoring: identification of animal species in camera-trap images using very deep convolutional neural networks. Ecological Informatics, 2017, 41: 24-32. DOI:10.1016/j.ecoinf.2017.07.004
[4]
Riordan P. Unsupervised recognition of individual tigers and snow leopards from their footprints. Animal Conservation, 1998, 1(4): 253-262. DOI:10.1111/j.1469-1795.1998.tb00036.x
[5]
Smith O, Wang J. When can noninvasive samples provide sufficient information in conservation genetics studies?. Molecular Ecology Resources, 2014, 14(5): 1011-1023.
[6]
Mills L S, Citta J J, Lair K P, Schwartz M K, Tallmon D A. Estimating animal abundance using noninvasive DNA sampling: promise and pitfalls. Ecological Applications, 2000, 10(1): 283-294. DOI:10.1890/1051-0761(2000)010[0283:EAAUND]2.0.CO;2
[7]
Kerley L L. Using dogs for tiger conservation and research. Integrative Zoology, 2010, 5(4): 390-396. DOI:10.1111/j.1749-4877.2010.00217.x
[8]
Hiby L, Lovell P, Patil N, Kumar N S, Gopalaswamy A M, Karanth K U. A tiger cannot change its stripes: using a three-dimensional model to match images of living tigers and tiger skins. Biology Letters, 2009, 5(3): 383-386. DOI:10.1098/rsbl.2009.0028
[9]
Gibb R, Browning E, Glover-Kapfer P, Jones K E. Emerging opportunities and challenges for passive acoustics in ecological assessment and monitoring. Methods in Ecology and Evolution, 2019, 10(2): 169-185. DOI:10.1111/2041-210X.13101
[10]
张常智. 东北虎及其猎物种群监测和人虎冲突研究[D]. 哈尔滨: 东北林业大学, 2013.
[11]
徐秋景. 基于空间灰度共生矩阵和Hu不变矩的东北虎个体识别[D]. 哈尔滨: 东北林业大学, 2009.
[12]
赵婷婷, 周哲峰, 李东喜, 刘松, 李明. 基于改进的Cifar-10深度学习模型的金钱豹个体识别研究. 太原理工大学学报, 2018, 49(4): 585-591, 598-598.
[13]
Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks//Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: ACM, 2012: 1097-1105.
[14]
Zeiler M D, Fergus R. Visualizing and understanding convolutional networks//Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 818-833.
[15]
Zhang X, Zou J, He K, Sun J. Accelerating very deep convolutional networks for classification and detection. IEEE transactions on pattern analysis and machine intelligence, 2015, 38(10): 1943-1955.
[16]
Szegedy C, Liu W, Jia Y Q, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A. Going deeper with convolutions//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 1-9.
[17]
He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 770-778.
[18]
Huang G, Liu Z, Van Der Maaten L, Weinberger K Q. Densely connected convolutional networks//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017: 4700-4708.
[19]
Trnovszký T, Kamencay P, Orješek R, Benco M, Sykora P. Animal recognition system based on convolutional neural network. Advances in Electrical and Electronic Engineering, 2017, 15(3): 517-525.
[20]
Willi M, Pitman R T, Cardoso A W, Locke C, Swanson A, Boyer A, Veldthuis M, Fortson L. Identifying animal species in camera trap images using deep learning and citizen science. Methods in Ecology and Evolution, 2019, 10(1): 80-91. DOI:10.1111/2041-210X.13099
[21]
Girshick R, Donahue J, Darrell T, Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 580-587.
[22]
Liu W, Anguelov D, Erhan D, Szegedy C, Reed S, Fu CY, Berg A C. SSD: Single shot multibox detector//Proceedings of the 14th European Conference on Computer Vision. Cham: Springer, 2016: 21-37.
[23]
Redmon J, Divvala S, Girshick R, Farhadi A. You only look once: unified, real-time object detection//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 779-788.
[24]
张毅, 贺桂珍, 吕永龙, 马艳飞, 宋帅. 我国生态环境大数据建设方案实施及其公开效果评估. 生态学报, 2019, 39(4): 1290-1299.
[25]
孙湛, 马海涛. 基于BP神经网络的京津冀城市群可持续发展综合评价. 生态学报, 2018, 38(12): 4434-4444.
[26]
Thom H. Unified Detection System for Automatic, Real-Time, Accurate Animal Detection in Camera Trap Images from the Arctic Tundra[D]. Norway: UiT Norges Arktiske Universitet, 2017.
[27]
Cheema G S, Anand S. Automatic detection and recognition of individuals in patterned species//Proceedings of 2017 European Conference on Machine Learning and Knowledge Discovery in Databases. Skopje, Macedonia: Springer, 2017: 27-38.
[28]
Yu X Y, Wang J P, Kays R, Jansen P A, Wang T J, Huang T. Automated identification of animal species in camera trap images. EURASIP Journal on Image and Video Processing, 2013(1): 52. DOI:10.1186/1687-5281-2013-52
[29]
Gomez A, Diez G, Salazar A, Diaz A. Animal identification in low quality camera-trap images using very deep convolutional neural networks and confidence thresholds//Proceedings of the 12th International Symposium on Visual Computing. Las Vegas, NV, USA: Springer, 2016: 747-756.
[30]
Norouzzadeh MS, Nguyen A, Kosmala M, Swanson A, Palmer M S, Packer C, Clune J. Automatically identifying, counting, and describing wild animals in camera-trap images with deep learning. Proceedings of the National Academy of Sciences, 2018, 115(25): 5716-5725. DOI:10.1073/pnas.1719367115
[31]
林杰, 潘颖, 杨敏, 佟光臣, 唐鹏, 张金池. 1988-2013年基于BP神经网络的植被叶面积指数遥感定量反演. 生态学报, 2018, 38(10): 3534-3542.