首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
【目的】本研究旨在探讨深度学习模型在蝴蝶科级标本图像自动识别中的可行性和泛化能力。【方法】为了提高识别模型的鲁棒性和泛化能力,将锤角亚目中6个科1 117种蝴蝶标本图像通过水平翻转、增加图像对比度与亮度以及添加噪声的方式增强图像数据集。在Caffe框架下,利用迁移学习方法,首先使用Image Net数据集中的图像训练Caffe Net模型,迭代31万次后得到初始化的网络权值;然后利用蝴蝶图像训练已预训练好的Caffe Net模型,通过参数微调,获得一个蝴蝶科级标本图像自动识别的卷积神经网络模型。为了比较深度学习和传统模式识别两种方法建立的模型的泛化能力,对相同训练样本提取全局特征和局部特征,训练支持向量机(support vector machine,SVM)分类器。所有的模型在与训练样本图像来源一致和不一致的两个测试样本集上进行测试。【结果】当测试样本与训练样本来源一致,均为蝴蝶标本图像时,基于Caffe Net的蝴蝶识别模型对6个科的蝴蝶识别准确率平均达到95.8%,基于Gabor的SVM分类器也获得了94.8%的识别率。当测试样本与训练样本来源不一致,为自然环境下拍摄的蝴蝶图像时,两种方法获得的识别率均下降,但Caffe Net模型对蝴蝶自然图像的平均识别率仍能达到65.6%,而基于Gabor的SVM分类器的识别率仅为38.9%。【结论】利用Caffe Net模型进行蝴蝶科级标本图像识别是可行的,相比较传统模式识别方法,基于深度学习的蝴蝶识别模型具有更好的泛化能力。  相似文献   

2.
卷积神经网络可以通过树木年轮样本构造特征图像实现物种识别的自动化。本研究通过建立树木年轮样本构造特征图像集,选用LeNet、AlexNet、GoogLeNet和VGGNet 4个卷积神经网络模型,实现基于树木年轮横切面的计算机自动化树种精准识别,进而确定各模型的树种识别准确率,明晰不同树种在自动识别中的混淆情况,探测不同模型识别结果的差异。结果表明: 本研究训练的用于树种识别的卷积神经网络模型具有较好的可信度;4个模型中GoogLeNet模型树种识别准确率最高,为96.7%,LeNet模型识别准确率最低(66.4%);不同模型对于所选树种的识别结果具有一致性,表现为对蒙古栎识别准确率最高(AlexNet模型识别率达到100%),对臭冷杉的识别准确率最低。本研究中也存在类似结构树种的识别混淆情况。模型在科和属水平的识别准确率高于种水平;阔叶树种因其显著的结构差异容易区分,阔叶树树种的识别准确率高于针叶树。总体上,通过卷积神经网络,探测了树木年轮特征的深层信息,达到树种的精准识别,提供了一种快速便捷的自动树种初筛鉴定方法。  相似文献   

3.
为解决大量红外相机监测影像数据量庞大、亟待快速和自动识别的问题,本研究以东北虎豹国家公园为例,应用卷积神经网络,通过深度学习算法对红外相机影像实现物种自动识别。本研究选择8个物种的红外相机视频影像,以50帧率均匀采集成图片格式,每个物种筛选不同角度、不同环境条件的图片,建立图片数据集,训练集2 074张,测试集519张。对图片进行目标打框、信息标注,选用darknet框架下的YOLO v3模型进行训练,首先不区分昼(RGB)夜(灰度)图像进行训练,再区分昼夜进行训练,最后分别对昼夜图像利用微调(fine-tune)进行训练。研究初步结果显示,基于YOLO v3模型对自然条件下拍摄的红外相机图像进行物种自动识别能够一定程度减轻人力负担,但其效果还需通过完善数据集进行提升。fine-tune在小数据集时或可作为辅助。模型对8个物种识别的平均精确率达到 84.9%~96.0%,且模型收敛。    相似文献   

4.
【目的】探究深度学习在草地贪夜蛾Spodoptera frugiperda成虫自动识别计数上的可行性,并评估模型的识别计数准确率,为害虫机器智能监测提供图像识别与计数方法。【方法】设计一种基于性诱的害虫图像监测装置,定时自动采集诱捕到的草地贪夜蛾成虫图像,结合采集船形诱捕器粘虫板上草地贪夜蛾成虫图像,构建数据集;应用YOLOv5深度学习目标检测模型进行特征学习,通过草地贪夜蛾原始图像、清除边缘残缺目标、增加相似检测目标(斜纹夜蛾成虫)、无检测目标负样本等不同处理的数据集进行模型训练,得到Yolov5s-A1, Yolov5s-A2, Yolov5s-AB, Yolov5s-ABC 4个模型,对比在不同遮挡程度梯度下的测试样本不同模型检测结果,用准确率(P)、召回率(R)、F1值、平均准确率(average precision, AP)和计数准确率(counting accuracy, CA)评估各模型的差异。【结果】通过原始图像集训练的模型Yolov5s-A1的识别准确率为87.37%,召回率为90.24%,F1值为88.78;清除边缘残缺目标图像集训练得到的模型Yolov5s-A2的识别准确率为93.15%,召回率为84.77%,F1值为88.76;增加斜纹夜蛾成虫样本图像训练的模型Yolov5s-AB的识别准确率为96.23%,召回率为91.85%,F1值为93.99;增加斜纹夜蛾成虫和无检测对象负样本训练的模型Yolov5s-ABC的识别准确率为94.76%,召回率为88.23%,F1值为91.38。4个模型的AP值从高到低排列如下:Yolov5s-AB>Yolov5s-ABC> Yolov5s-A2>Yolov5s-A1,其中Yolov5s-AB与Yolov5s-ABC结果相近;CA值从高到低排列如下:Yolov5s-AB>Yolov5s-ABC>Yolov5s-A2>Yolov5s-A1。【结论】结果表明本文提出的方法应用于控制条件下害虫图像监测设备及诱捕器粘虫板上草地贪夜蛾成虫的识别计数是可行的,深度学习技术对于草地贪夜蛾成虫的识别和计数是有效的。基于深度学习的草地贪夜蛾成虫自动识别与计数方法对虫体姿态变化、杂物干扰等有较好的鲁棒性,可从各种虫体姿态及破损虫体中自动统计出草地贪夜蛾成虫的数量,在害虫种群监测中具有广阔的应用前景。  相似文献   

5.
刘国成  张杨  黄建华  汤文亮 《昆虫学报》2015,58(12):1338-1343
【目的】叶螨(spider mite)是为害多种农作物的主要害虫,叶螨识别传统方法依靠肉眼,比较费时费力,为研究快速自动识别方法,引入计算机图像分析算法。【方法】该方法基于K-means聚类算法对田间作物上的叶螨图像进行分割与识别。【结果】对比传统RGB彩色分割方法,K-means聚类算法能够有效地对叶片上叶螨图像进行分割和识别。K-means聚类算法平均识别时间为3.56 s,平均识别准确率93.95%。识别时间 T 随图像总像素 Pi 的增加而增加。【结论】K-means聚类组合算法能够应用于叶螨图像分割与识别。  相似文献   

6.
史春妹  谢佳君  顾佳音  刘丹  姜广顺 《生态学报》2021,41(12):4685-4693
东北虎个体的自动识别是种群数量评估和制定有效保护策略的重要基础。以东北虎林园和怪坡虎园38 只虎为研究对象,将目标检测方法首次应用到东北虎个体识别研究中,采用多种深度卷积神经网络模型,以实现虎个体的自动识别。首先通过相机在不同角度对 38 只东北虎进行拍摄取样,建立包含13579张图像的虎样本数据集。由于虎的体侧条纹信息不具有对称性,所以运用单次多盒目标检测(Single Shot MultiBox Detector, SSD)方法,对虎的躯干左侧条纹、右侧条纹以及脸部等不同部位图像,进行自动检测并分割提取,极大节省手工截取时间。在检测分割出的左右侧及脸部不同部位图片基础上,运用上、下、左、右平移变换进行数据增强,使图片数目扩大为原来的5 倍。采用LeNet、AlexNet、ZFNet、VGG16、ResNet34共5 种卷积神经网络模型进行个体自动识别。为了提高识别准确率,运用平均值和最大值不同组合方式来优化池化操作,并在全连接层引入概率分别为0.1、0.2、0.3、0.4的丢弃(Dropout)操作防止过拟合。实验表明,目标检测模型耗时较少,截取分割老虎不同部位条纹能达到0.6 s/张,远快于人工截取速度,并且在测试集上准确率能达到97.4%。不同姿态下的目标部位都能正确识别并分割。ResNet34模型的准确率优于其他网络模型,左右侧条纹以及脸部图像识别准确率分别为93.75%、97.01%和 86.28%,右侧条纹识别准确率优于左侧条纹和脸部图像。研究为野生虎自动相机影像的识别提供技术参考。在未来研究中,对东北虎个体影响数据进行扩充,选取更多影像数据进行训练,使网络具有更强的适应性,从而实现更准确的个体识别。  相似文献   

7.
【目的】本研究旨在探索使用计算机视觉技术实现对鳞翅目标本图像的前背景分割方法。【方法】首先对用于训练和测试的昆虫标本图像去除背景,获得昆虫图像的前背景分割参考标准,对过大的昆虫图像进行缩小处理;其次对训练集图像采用旋转、平移、缩放等方法进行数据增强,剪切出中心区域作为有效图像。求取所有训练样本的均值图像,并从所有输入中减去该均值图像。测试用图像只做归一化但不进行数据增强。微调全卷积神经网络,重点调整结构产生变化的卷积层和反卷积层的参数,用前述训练数据集训练直至收敛。对于待分割图像,只要将图像归一化后输入到训练好的全卷积网络,网络将输出前背景分割结果。【结果】该方法在包含823个样本的测试集中进行了测试,取得的m Io U(mean Intersection over Union)达94.96%,而且分割的视觉效果已经非常接近于人工分割的结果。【结论】实验结果证明通过训练全卷积神经网络可以有效实现鳞翅目标本图像的前背景自动分割。  相似文献   

8.
文章充分利用红鳍东方鲀(Takifugu rubripes)体侧纹理特征提出了一种基于轻量级卷积神经网络的鱼类个体身份识别方法,可在无损前提下实现红鳍东方鲀个体身份的高精度识别。首先,采用SOLOv2模型进行前景分割,并结合红鳍东方鲀体型特点,通过质心和哈希值计算方法完成数据集生成和筛选;随后,从多维度分别测试主流深度学习图像分类骨干网络和不同损失函数在红鳍东方鲀身份识别中的效果;继而,在MobileNet v2骨干网络基础上,耦合Softmax Loss函数,建立了一种适用于红鳍东方鲀的个体身份无损识别的最优组合方法。研究结果表明,文章方法准确率可达90.2%,优于其他相关主流方法(准确率73.6%—89.3%),相关研究成果将为循环水养殖鱼类个体身份无损识别和精准生物量估算提供技术支撑。  相似文献   

9.
嫁接有利于增强树体对生物及非生物胁迫的适应能力,提高葡萄产量和品质。葡萄砧木品种多样复杂,识别难度较大,深度学习能够快速提取图像的深层特征,被广泛应用于植物图像分类识别领域。本研究以30份葡萄砧木成龄叶图像作为研究对象,通过采集叶片图像,构建了一个包含13547张的葡萄砧木叶片图像的数据集。采用GoogleNet、ResNet-50、ResNet-101以及VGG-16等4个卷积神经网络对其进行自动识别。结果表明:精度最高的分类网络为ResNet-101,在最优模型参数(学习率:0.005,最小批次:32,迭代次数:50)下精度达到97.5%。ResNet-101模型检测的30个品种中,平均预测精确率为92.59%,有7个品种的预测精确率达到100%;平均召回率为91.08%,有8个品种的召回率达到100%,叶片的叶面纹理、叶脉以及叶缘部分对品种识别的影响最大。以上结果证实,深度学习网络模型可以实现对葡萄砧木的自动实时识别,为葡萄砧木品种的保护、利用、分类研究以及其他农作物的品种识别提供参考。  相似文献   

10.
为了探索基于深度神经网络模型的牙形刺图像智能识别效果,研究选取奥陶纪8种牙形刺作为研究对象,通过体视显微镜采集牙形刺图像1188幅,收集整理公开发表文献的牙形刺图像778幅,将图像数据集划分为训练集和测试集。通过对训练集图像进行旋转、翻转、滤波增强处理,解决了训练样本不足的问题。基于ResNet-18、ResNet-34、ResNet-50、ResNet-101、ResNet-152五种残差神经网络模型,采用迁移学习方法,对网络模型进行训练以获取模型参数,五种模型测试Top-1准确率分别为85.37%、85.85%、83.90%、81.95%、80.00%, Top-2准确率分别为94.63%、94.63%、94.15%、93.17%、93.66%,模型对牙形刺图像具有较好的识别效果。通过对比研究发现,ResNet-34识别准确率最高,说明对于特征简单的牙形刺属种,增加网络深度并不一定能提升准确率,而确定合适深度的模型则不仅可以提高识别准确率,还可以节约计算资源。通过ResNet-34模型的迁移学习训练和重新训练效果对比可以看出,迁移学习不仅可以获得较高的准确率,而且可以较快获取模型参...  相似文献   

11.
【目的】针对在松枯死树监测实践中,从无人机航拍RGB影像中自动识别松枯死树漏检率高的问题,提出了一种生产应用场景下基于多色彩空间的YOLOv5松枯死树高精度自动识别新方法。【方法】利用无人机采集大面积松材线虫病发生林分的RGB图像,用Pix4Dmapper软件拼接,用LabelImg开源软件建立VOC格式的松枯死树数据集,分别用Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、SSD和EfficientDet等6种基于深度学习的目标检测算法对数据集进行训练和测试,以精确率、召回率、平均准确率以及F1分数作为评价指标筛选出最优目标检测算法;然后将采集的RGB图像转换成LAB和HSV色彩空间图像,再将这3个色彩空间的图像分别用最优目标检测算法进行训练,得到目标在每个色彩空间的边界框,使用非极大值抑制算法对这些边界框进行处理,得到最优边界框实现松枯死树自动识别。【结果】6种算法均取得良好效果,其中YOLOv5模型为最优算法,其精准率、平均查准率和F1分数在6种算法中均最高,分别达到97.58%、82.40%和0.85。通过3个色彩空间融合后,反映漏检情况的召回率由74.54%提高到98.99%,平均准确率提升至98.39%。【结论】基于多色彩空间的YOLOv5模型能够显著提高从无人机航拍RGB影像中检测松枯死树的精度,为松枯死树监测提供了有力工具,也有助于松材线虫病的防治。  相似文献   

12.
竺乐庆  张真 《昆虫学报》2013,56(11):1335-1341
【目的】为了给林业、 农业或植物检疫等行业人员提供一种方便快捷的昆虫种类识别方法, 本文提出了一种新颖的鳞翅目昆虫图像自动识别方法。【方法】首先通过预处理对采集的昆虫标本图像去除背景, 分割出双翅, 并对翅图像的位置进行校正。然后把校正后的翅面分割成多个超像素, 用每个超像素的l, a, b颜色及x, y坐标平均值作为其特征数据。接下来用稀疏编码(SC)算法训练码本、 生成编码并汇集成特征向量训练量化共轭梯度反向传播神经网络(SCG BPNN), 并用得到的BPNN进行分类识别。【结果】该方法对包含576个样本的昆虫图像的数据库进行了测试, 取得了高于99%的识别正确率, 并有理想的时间性能、 鲁棒性及稳定性。【结论】实验结果证明了本文方法在识别鳞翅目昆虫图像上的有效性。  相似文献   

13.
本文提出了一种基于卷积神经网络和循环神经网络的深度学习模型,通过分析基因组序列数据,识别人基因组中环形RNA剪接位点.首先,根据预处理后的核苷酸序列,设计了2种网络深度、8种卷积核大小和3种长短期记忆(long short term memory,LSTM)参数,共8组16个模型;其次,进一步针对池化层进行均值池化和最大池化的测试,并加入GC含量提高模型的预测能力;最后,对已经实验验证过的人类精浆中环形RNA进行了预测.结果表明,卷积核尺寸为32×4、深度为1、LSTM参数为32的模型识别率最高,在训练集上为0.9824,在测试数据集上准确率为0.95,并且在实验验证数据上的正确识别率为83%.该模型在人的环形RNA剪接位点识别方面具有较好的性能.  相似文献   

14.
【目的】探索昆虫远程智能监测系统在苹果园害虫监测中的应用技术。【方法】采用双机双摄图像采集系统收集每个时间段诱集昆虫的清晰图像,并传送至系统,在系统客户端进行识别记录。【结果】昆虫远程智能监测系统通过平台设定参数,自动完成昆虫的诱集、灭杀、拍照、传输、收集等工作,客户端人工识别、计数较准确,与实际害虫发生吻合度高。【结论】昆虫远程智能监测系统可实现苹果园多种主要害虫的远程实时监测,减少了监测的人力物力。电脑神经网络通过平台提供的昆虫图片的学习、特征提取、结构构建和模型评估,最终可实现昆虫的自动识别计数。  相似文献   

15.
树木年轮学的研究需要统计树龄和测量轮宽,由此推算环境变换和树木生长信息,因此准确提取年轮特征信息至关重要。精准识别出年轮图像中的早材、晚材和树皮是实现自动化测量年轮参数的首要工作。树木年轮的生长过程中存在年轮的早材和晚材间边界过渡模糊、节疤和伪年轮等现象,且年轮圆盘在砍伐和采集过程中表面会存在毛刺和噪声点,使用传统的图像分割算法难以得到理想的效果。本文结合深度神经网络的特点,针对年轮图像的分割问题,构建了基于U-Net卷积神经网络的年轮图像语义分割模型。首先,对采集的100张年轮圆盘图像进行标注,并通过旋转、透视和图像变形等方式做数据增强,生成20000张数据集,随机选择其中16000张作为训练数据集,4000张作为测试数据集。其次,根据图像数据集的特征,利用Tensorflow深度学习框架,设计构建基于U-Net卷积神经网络的年轮圆盘图像分割网络。然后,将训练样本输送进网络,设置优化训练参数,对年轮图像分割网络进行迭代训练,直至评价指标和损失函数不再变化。最后,用训练好的模型对测试集样本进行分割,并进行分割指标评估。结果表明:该算法可有效避免毛刺、锯痕和节疤等因素的影响,完整地分割出年轮的晚材和树皮区域,在4000张测试数据集上分割的平均准确率达到96.51%,平均区域重合度达到82.30%。与传统图像处理算法相比,本文所采用的基于U-Net卷积神经网络的年轮图像分割算法,能够达到更好的分割效果,同时具有更强的泛化能力和鲁棒性。  相似文献   

16.
绿视率是用于绿色空间感知的直观评价标准,传统研究的绿视率多基于平面影像进行计算,不能完全反映三维空间中人对绿量的主观感受。基于全景影像,提出全景绿视率的概念,通过全景相机获取球面全景照片,将等距圆柱投影转换为等积圆柱投影,利用基于语义分割的卷积神经网络模型,自动识别植被区域面积以实现全景绿视率自动化识别和计量。通过比较5项卷积神经网络模型对绿视率的识别效果,显示出Dilated ResNet-105神经网络模型具有最高的识别准确度。以武汉市武昌区紫阳公园为例,对各级园路和广场的全景绿视率进行计算和分析。将卷积神经网络的识别结果同人工判别结果进行对比研究,结果显示:使用Dilated ResNet-105卷积神经网络对绿植范围识别的平均交并比(mIoU)为62.53%,与人工识别的平均差异为9.17%。全景绿视率自动识别和计算可以为相关研究提供新的思路,实现客观准确、快速便捷的绿视率测量评估。  相似文献   

17.
【目的】植食性金龟子是我国的重要农林害虫,探索一种快速而准确地鉴别植食性金龟子的新方法,为将此法推及至其他鞘翅目昆虫的识别来建立研究基础。【方法】利用近红外光谱法对金龟子进行鉴别,提出了用支持向量机(Support vector machine,SVM)算法对15种植食性金龟子近红外光谱图(数据)进行分析,经过噪声波段去除后,用平滑求导与标准化法对的光谱进行预处理,选取金龟子标本150个,针对不同分类阶元和分类单元将66%样本谱图作为校正集,用SVM建立鉴别模型并对模型进行自身检验,用剩余样本图谱作为预测集对这些模型进行验证。【结果】模型的自身检验显示在金龟科4个亚科的鉴别模型中,鳃金龟亚科正确识别率为86%,其他样本的识别准确率均大于95%,在亚科不同属和属下不同种的鉴别模型中,除疏纹星花金Protaetia cathaica(Bates)外,其他样本的识别准确率均为100%;模型的预测集验证结果显示,在不同分类阶元和分类单元的鉴别模型中,由于云斑鳃金龟Polyphylla laticollis Lewis样本较少未能正确识别,其他样本的识别准确率均为100%。整体试验结果较为理想,说明模型性能较好。【结论】基于已定金龟子建立的模型能够很好地鉴别大部分样本,采用近红外光谱扫描技术结合支持向量机得到的植食性金龟子鉴别模型具有很强的推广能力。  相似文献   

18.
【目的】油茶树害虫的种类较多,其中油茶毒蛾Euproctis pseudoconspersa幼虫是危害较大的害虫之一。为完成油茶毒蛾幼虫的自动检测需要对其图像进行分割,油茶毒蛾幼虫图像的分割效果直接影响到图像的自动识别。【方法】本文提出了基于邻域最大差值与区域合并的油茶毒蛾幼虫图像分割算法,该方法主要是对相邻像素RGB的3个分量进行差值运算,最大差值若为0,则进行相邻像素合并得出初始的分割图像,根据合并准则进一步合并,得到最终分割结果。【结果】实验结果表明,该算法可以快速有效地将油茶毒蛾幼虫图像中的背景和虫体分割开来。【结论】使用JSEG分割算法、K均值聚类分割算法、快速几何可变形分割算法和本文算法对油茶毒蛾幼虫图像进行分割,将结果进行对比发现本文方法的分割效果最佳,且处理时间较短。  相似文献   

19.
提出一种基于三维卷积神经网络对肺部计算机断层扫描图像(CT)进行肺结节自动探测及定位的方法.基于开源数据集LUNA16开展研究,对数据进行像素归一化、坐标转换等预处理,对正样本使用随机平移、旋转和翻转的方式进行扩充,对负样本进行随机采样.搭建了三维卷积神经网络并在训练过程中调整网络参数,直到得到性能最佳的网络.此外还设...  相似文献   

20.
[目的]具有复杂背景的蝴蝶图像前背景分割难度大.本研究旨在探索基于深度学习显著性目标检测的蝴蝶图像自动分割方法.[方法]应用DUTS-TR数据集训练F3Net显著性目标检测算法构建前背景预测模型,然后将模型用于具有复杂背景的蝴蝶图像数据集实现蝴蝶前背景自动分割.在此基础上,采用迁移学习方法,保持ResNet骨架不变,利...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号