保险研究杂志投稿须知
1.所投稿件必须是未在公开出版物以及互联网上发表的论文。
2.本刊反对一稿多投、重复发表、剽窃、伪造、篡改、不当署名等学术不端行为,若发现上述情况,稿件将按退稿处理,并且视情节轻重在一定期限内不再受理该作者的任何稿件。
3.本刊稿件实行匿名评审制度,审稿进度可在投稿系统中查看。作者投稿后,若在3个月内没有收到编辑部对该论文的处理意见,向编辑部声明后可以另行处理该论文。
4.同意《保险研究》编辑部在不改变稿件基本观点和实质内容的前提下,在刊发前对稿件进行技术性和文字性的修改。
5.论文发表后,版权即属于《保险研究》编辑部所有。经本刊编辑部许可,在其他出版物上发表、转载的,须特别注明“本文首发于《保险研究》XXXX年第X期”。
6.合作作品,最多可以接受五个作者署名,且根据实际所起作用大小依次署名。
7.本刊不收取审稿费、版面费等任何费用。
进入期刊首页作者:刘莫尘,孙崇凯,李正浩,常 昊,尚明瑞,宋占华,刘贤军,孙廷举,闫银发
作者单位:山东农业大学,智能农业机器人山东省高等学校未来产业工程研究中心;山东省设施园艺智慧生产技术装备重点实验室(筹);莒县海通茧丝绸有限公司; 山东广通蚕种集团
关键词:家蚕;深度学习;计数;体长;关键点检测
摘 要: 家蚕计数与体长测量是在家蚕养殖过程中的必要环节,传统家蚕计数及体长测量方法主要人工完成,易受主观 因素影响,较难实现对家蚕数量和家蚕体长的快速、准确监控。本文使用深度学习的方法实现了家蚕计数及家蚕体长 测量,以饲料育家蚕为研究对象,构建了家蚕关键点检测数据集,提出了YOLOv8-Pose-GE算法。该算法在YOLOv8- Pose的Backbone部分加入GAM注意力机制,可以放大全局交互,进行多层感知器的3D排列,提高模型特征提取能力 的同时减少信息损失;在Neck部分添加ECA注意力机制,具有实现全局空间信息聚合的部分和进行跨通道交互进行 建模的部分,可以提升模型对重要特征的感知能力,使模型更好的处理提取家蚕关键点特征。YOLOv8-Pose-GE的 mAP、P和R分别为94.7%、95.31%和87.98%,均优于其他常用的关键点检测算法。该算法同时兼顾了速度,其FPS达 到37.61 s −1 。本方法可以依靠YOLOv8-Pose-EG的head部分输出的坐标来对家蚕及家蚕关键点位置进行定位,并按顺 序依次用直线连接家蚕关键点,由连线长度得到家蚕体长,同时实现家蚕计数。本文对家蚕拍摄录像中随机截取10帧 图片进行计数实验,其MAE_L、MRE_L和MSD_L由分别为1.6头、3.6%和2.1头,说明模型具有较高的准确性的同时具 有较高的稳定性。本文对40头家蚕(1-5龄家蚕中各随机取8头)进行测量实验,由结果分析得,该算法具有家蚕龄期 越高,测量效果越好的特点,尤其5龄,MAE_L、MRE_L、MSD_L和PCC分别为12.29 px、1.87%、4.15px和0.977,总体误 差较小。该算法满足家蚕计数及体长测量的需要,为提高家蚕养殖的质量,加强家蚕品种选育提供技术支持。
蚕业是中国文明的起点之一,是中华民族的 重要文化标识,然而近年受从业人员老龄化情况 加剧、比较效益下降等因素影响,我国蚕业发展 受到制约,因此如何促进蚕业发展,提高家蚕养 殖的质量,加强家蚕品种选育已然成为当前深度 学习研究与应用中亟待讨论的重要议题[1] 。 家蚕计数与体长测量在家蚕养殖过程中不 可或缺。通过准确的计数,饲养者可以精确规划 饲养物资,合理调整饲养密度。家蚕体长是评估 其生长状况的重要指标,也可以为家蚕品种的选 育工作提供宝贵的参考数据。传统家蚕计数方 式主要依赖养殖人员手动计数,传统家蚕体长的 测量主要为养殖者的目测,无法实现对家蚕数量 和家蚕体长的快速、准确监控。因此,探索并应 用更为高效、精准的家蚕计数与体长测量方法, 对于提升家蚕养殖的质量,加强家蚕品种选育具 有重要意义。
随着深度学习的迅速发展,计算机视觉在各 个领域获得广泛应用。在计数领域中:陈洪锐等 在 YOLOv4 模型的基础上提出的 I-confidece 损 失来改善置信度损失,减少了分配给容易分类的 样本的损失权重 ,并更加关心学习困难的样 本[2] ,但I-confidene损失需要考虑样本的难度和 置信度,这导致算法运行过程中的计算负担增 加;何锐敏等通过在Mask R-CNN模型框架中加 入像素重加权策略和边界框细调策略,得到准确 性更高的模型[3] ,但是该模型在检测5龄家蚕时 效果不理想,泛化能力有待提高;赵春江等在 YOLOv7-tiny 网络基础上将高效层聚合网络中 的常规卷积替换为深度卷积减少模型参数量,同 时在特征融合模块引入CoordAtt注意力机制提 升模型对目标空间位置信息的感知能力[4] ,但是 该模型过于强调轻量化处理,导致检测准确率不 高,效果差强人意。
体长测量领域:赵建敏等提出了一种基于 Kinect v4传感器的牛体尺测量方法来采集彩色 和深度图像,并结合目标检测、Canny边缘检测、 三点圆弧曲率等算法提取体征特征点进而计算 体尺数据[5] ,结合多种方法的算法将增加计算复 杂性,导致模型的实时性能不高;张凯等利用Fiji 的骨架提取与分析功能,提取并分析出各龄幼虫 躯干长度,通过计算最长最短分支路径,实现幼 虫体长的估测[6] ,但是在复杂背景或幼虫躯干与 背景对比度不高的情况下,骨架提取和边缘检测 可能难以准确区分幼虫躯干与背景,导致分析结 果不准确;王小品等提出了基于HRNet的多目标 生猪体尺关键点定位模型,通过移除HRNet中参 数冗余的第四阶段 ,并引入 Swin Transformer Block自注意力机制来更好的捕获关键点之间的 约束关系[7] ,但是该方法只关注于站立的生猪, 然而生猪通常会出现爬跨、身体扭曲等不同的 姿态。
本文以饲料育的家蚕作为研究对象,构建了 家蚕关键点检测算法YOLOv8-Pose-GE,创新性 的将家蚕体长测量和家蚕计数结合在一起,该算 法可定位并按顺序依次用直线连接家蚕关键点,由连线长度得到家蚕体长,同时实现家蚕计数, 该算法泛化能力较强,在检测不同龄期、不同体 态家蚕时具有良好表现;同时兼顾检测速度,算 法的实时性能强。本文提出的算法还避免了因 人工计数及测量体长给家蚕带来的应激反应,为 家蚕养殖的质量提升,家蚕品种选育加强提供了 技术支持。
1 材料与方法
1.1 数据集采集与构建
家蚕图像采集地点在山东省青州市山东广 通蚕种有限公司,拍摄场景如图1所示。相机为 明创达 MCD-1073 型 POE 网络相机,清晰度为 3 840×2 160,焦距为3.6 mm;将网络相机放置于 蚕匾正上方进行拍摄,拍摄对象为同一蚕匾中1-5 龄的家蚕,家蚕品种为932,自家蚕收蚁后每24 h 进行拍摄,每次拍摄时间为30 min,共拍摄13 h。 拍摄小蚕(1-3龄)时拍摄相机高度设置为7.2 cm, 相机拍摄范围为长13.0 cm,宽7.0 cm的矩形,拍 摄大蚕(4-5龄)时,相机高度设置为15.2 cm,相机 拍摄范围为长243.0 cm,宽13.0 cm的矩形[8] 。

使用Labelme制作家蚕关键点数据集,先使 用最小外接矩形框标注整头蚕,然后标注关键点 (选取4个点,分别为家蚕头部,第二胸节与第一 腹节连接处,第六腹节与第七腹节连接处和第十 腹节末端);本文在家蚕重叠情况下,对上层不被 遮挡的家蚕进行标注,被遮挡的家蚕不进行标 注。标注界面如图2所示。在家蚕的1-5龄随机 选150张图像进行标注,数据集信息如表1所示, 按照 7∶2∶1 的比例划分为训练集、验证集和测 试集[9] 。

1.2 评价指标
1.2.1 关键点检测模型评价指标
本文选取均值 平均精度mAP(mean Average Precision-key point)、 准确率P(Precision)、召回率R(Recall)和每秒帧 数 FPS( Frames Per Second)作为关键点检测算 法的评价指标。
mAP 获取过程如下:首先计算目标关键点 相似性OKS(Object Keypoint Similarity)的值,可 以进一步获取 AP(Average Precision)也就是平 均准确率,通过 AP 得到 mAP。目标识别方面, 选取P(Precision)和R(Recall)为评价指标[10] 。
OKS的计算公式为:

dpi 为检测中第 i 个关键点与目标中对应关 键点的欧拉距离;SP为p点的尺度因子;Vpi为关 键点可见性,0为未标注,1为标注被遮挡,2为标 注并可见;σi 为 i 类型关键点的归一化因子;当 Vpi > 0,δ = 1,否则δ = 0。
AP的计算公式为:

当OKS > T,β = OKS,否则β = 0。
P和R为目标识别方面评价指标,其计算公 式为:

TP(True Positive)为被预测为正类的正样 本;FP(False Positive)为被预测为正类的负样 本;TN(True Negative)为被预测为负类的负样 本 ;FN( False Negative)为被预测为负类的正 样本。
FPS(Frames Per Second)在深度学习模型的 性能评估中,用来衡量模型在算法实际应用中的 处理速度,其计算公式为:

2.2 计 数 评 价 指 标 选 用 平 均 绝 对 误 差 MAE_C(Mean Absolute Error_Count) 、平均相对 误差MRE_C(Mean Relative Error_Count)和平均 标 准 差 SDM_C(Standard Deviation of the Mean_Count)为家蚕计数的评价指标。
MAE_C衡量的是算法检测到家蚕的数量与 实际家蚕的数量之间的平均绝对差异,即误差的 平均大小,而不考虑误差的方向,它提供了一个 直观的度量,表示模型预测结果的精确度,其对 异常值的敏感度较低,在面对极端值时更加稳 健。这个值越小,说明预测值与实际值越接近, 预测效果越好。其公式如下:

ai为检测家蚕数量;bi为真实家蚕数量;m为 测量图片数量。
MRE_C评价算法检测到家蚕的数量与实际 家蚕的数量之间的差异程度,它考虑了误差相对 于实际家蚕的数量的大小,以百分比形式展示了 误差的占比,方便直观的理解,其越小,说明误差 相对于实际家蚕的数量来说占比越小,预测效 果,越好其公式如下:

SDM_C是一个度量数据集中数值分散程度 的统计量,它描述各个图片计数的误差相对于平 均误差的离散程度,是衡量算法稳定性的重要指 标,该值越小,算法稳定性越高,其计算公式 如下:

1.2.3 体长测量评价指标
选用平均绝对误差 MAE_L( Mean Absolute Error_Length)、平均相 对误差MRE_L(Mean Relative Error_Length)、平 均 标 准 差 SDM_L (Standard Deviation of the Mean_Length)和皮尔逊相关系数 PCC( Pearson Correlation Coefficient)作为家蚕体长测量的评 价指标[11] 。
MAE_L衡量的是算法测量家蚕长度与实际 家蚕长度之间的平均绝对差异,其公式如下:

xi为测量像素长度;yi为真实像素长度;n为 测量家蚕头数。
MRE_L用于衡量算法测量家蚕长度与真实 家蚕长度之间差异程度的指标,它考虑了家蚕体 长测量的误差相对于实际家蚕体长的大小。其 公式如下:

SDM_L描述各头家蚕体长测量的误差相对 于平均误差的离散程度,其计算公式如下:

PCC可以衡量算法测量家蚕长度与真实家 蚕体长之间的相关性,其值域为−1到1之间。其 中,1表示完全的正向线性关系,−1表示完全的 负向线性关系,而0则表示无线性关系。本实验中测量值和真实值之间是正相关(即一个值增加 时,另一个值也增加),皮尔逊相关系数越接近1 越好。PCC计算公式如下:

总体来说,平均绝对误差和平均相对误差 直接衡量预测误差的大小,侧重于直接表现模 型的性能。平均标准差反映据的离散程度,衡 量模型稳定性;皮尔逊相关系数衡量预测值与 实际值之间的线性相关程度,反映模型预测的 趋势是否与实际一致;二者侧重于从侧面反映 模型性能。
1.3 基 于 改 进 YOLOv8-Pose 的 家 蚕 关 键 点 检测
本文使用 YOLOv8-Pose 作为基础网络 , 其主要组成部分为 Inputs、Backbone、Neck 和 Head。Backbone 部分主要进行特征提取,其结 构参照 ELAN,这可使模型可以传播与融合在 不同层次的特征,从而实现更好的特征表达, 显著提升模型的检测性能、加快模型的收敛; Neck 部分负责进行多尺度特征融合;head 部分 主要输出最终检测结果,包括图片中每头家蚕 的位置和每头家蚕关键点坐标。本文构建的家 蚕关键点检测算法命名为 YOLOv8-Pose-GE, 主要在基础网络的 Backbone 部分加入 GAM (Global Attention Mechanism)注意力机制加强 模型的全局感知能力[12],在 Neck 部分添加 ECA(Efficient Channel Attention)注意力机制, 提升模型对重要特征的感知能力。head部分将 原网络输出的最终检测结果进行整合,使用红色 矩形框标注家蚕,按顺序依次用直线连接家蚕关 键点,在连线附近显示家蚕体长,在图像左上角 显示图像中家蚕数量。YOLOv8-Pose-GE 整体 网络结构如图3所示。
1.3.1 GAM 注意力机制 考虑到家蚕在各龄期 长度变化较大的特点,在模型的 Backbone 部分 加入GAM( Global Attention Mechanism) 注意力 机制,该机制拥有通道注意以及卷积空间注意子 模块,可以放大全局交互,提高模型特征提取能 力,而且该机制可以进行多层感知器的3D排列, 可以减少信息损失[13] 。整体过程如图4所示,其 公式为:

输入特征图 F1 首先经过通道注意力模块, 该模块可以突出重要特征的通道,然后与输入特 征图 F1 进行元素间的乘法得到 F2,随后通过空 间注意力模块,该模块可以对特征图进行空间信 息特征的捕捉,保留更多信息的同时帮助模型识 别 重 要 区 域 ,然 后 再 与 F2 结 合 得 到 输 出 特 征图F3 [14] 。
1.3.2 ECA 注意力机制 考虑到家蚕会呈现伸 直、弯曲等不同体态。在 Neck 部分添加 ECA (Efficient Channel Attention)注意力机制,其具有 实现全局空间信息聚合的部分和进行跨通道交 互进行建模的部分,可以提升模型对重要特征的 感知能力,使模型更好的处理提取家蚕关键点特 征,其网络结构如图5 [15] 。
ECA注意力机制首先对输入的特征图进行 全局平均池化(GAP),得到每个通道的全局平均 值,然后根据卷积核k来对池化后的特征进行处 理进行一维卷积,这减少了计算量,提高了模型 的性能,最终经过σ得到用于调整输入特征图权 重,帮助模型更好提取特征图中的重要信息[16] 。 其公式如下:

其中,X 是输入特征图,H 和 W 为特征图的高度 和宽度,γ 和 b 是超参数,|·| odd 表示取最近的奇 函数,C 为通道数,k 为自适应核大小,σ 表示 Sigmoid 激活函数,Conv1Dk表示核大小为k的一 维卷积操作。


2 实验结果分析
2.1 家蚕关键点检测分析
2.1.1 模型训练环境与参数
训练和测试平台为 惠普 Z820,CPU 为 Inter Xeon E5-2620,GPU 为 GeForce RTX2080 Ti,训练迭代周期为 500,批量 大小为16,初始学习率为0.01,动量因子为0.937。 数据集按照7∶2∶1的比例划分为训练集、验证集 和测试集[12] 。
2.1.2 对比实验检测结果分析
为了验证改进的 YOLOv8-Pose-GE检测模型的有效性,本节在同 一家蚕目标检测数据集上分别使用 YOLOv5- Pose、YOLOv7-Pose 和 YOLOv8-Pose 与其进行 对比,使用P、R、mAP和FPS作为模型的评价指 标[17] 。各模型训练结果如表2所示。
图 6 展示了所有关键点检测模型的训练损 失变化曲线,由图得随着训练轮数的不断增加, 模型的损失快速减少,逐渐趋于平稳,并最终都 能够实现收敛,其中改进后的YOLOv8-Pose-GE 收敛速度较快且最终损失值最低,为0.039。
图7为所有关键点检测模型的mAP曲线,由 图得可知所有模型的mAP都在随着训练轮数的 增加不断提高并最终收敛;改进后的 YOLOv8- Pose-GE 模型的mAP值能够以最快的速度升高, 同时最终收敛精度达到最高的94.7%。
2.1.3 消融实验检测结果分析
YOLOv8-PoseGE较原网络模型进行了两处改进,为了对所提 出 的 改 进 方 法 的 有 效 性 进 行 评 价 ,本 节 以 YOLOv8-Pose原模型为基础模型,利用精准率、 召回率和平均精度均值作为评价指标,通过消融 实验进行验证。实验结果如表3所示,表中“√” 表示使用此改进策略,“×”表示未使用此改进 策略。
家蚕体长变化较大,会呈现伸直、不同方向和程度的蜷曲弯曲等体态。



需要加强原网 络的特征提取能力和对重要特征的感知能力。 原网络在模型的 Backbone 部分加入 GAM 注 意力机制后,通过减少信息损失和放大全局交 互的方法显著提升了模型的特征提取能力,同 时在模型的 Neck 部分加入 ECA 注意力机制 后,模型可以调整不同通道的输出权重,使得 网络更加关注对当前任务有利的特征,提升模 型对重要特征的感知能力。相较于原网络,加 入这两种模块的 YOLOv8-Pose-GE 的 mAP 达 到了 94.7%。
本模型对 1-5 龄蚕的检测效果如图 8 所 示,改进后的网络比原网络漏检明显减少,关 键点检测的 mAP 值也有所提高。以关键点偏 移量(实际家蚕关键点坐标与网络输出的关键 点坐标的像素距离差值的平均值)来衡量关 键点检测效果,图 8 中原网络对 1-5 龄期蚕体 的 关 键 点 偏 移 量 分 别 为 8.24 px、10.05 px、 20.14 px、24.74 px 和 34.04 px;而 改 进 后 的 网 络 各 龄 期 关 键 点 偏 移 量 分 别 为 5.31 px、 8.12 px、14.31 px、17.58 px 和 26.96 px,偏移 量较原网络减小,改进提高了模型的对关键点 检测的准确性。

本模型在检测家蚕分布较为稀疏的情况下 效果较好,但是在面对较为家蚕分布较为密集 的情况下,效果将会下降,如图 9 所示,图中被 紫色椭圆标注的家蚕的第一个关键点偏移较 大。推测为模型在目标密集情况下的特征提取 能力不足,下一步将优化模型特征提取结构, 提升其对目标的特征提取能力。虽然该模型在 家蚕分布较为密集的情况下存在个别关键点偏 移较大的现象,但是整体检测效果较好且无漏 检 情 况 ,能 够 为 家 蚕 体 长 测 量 的 提 供 可 靠 支持。
2.2 家蚕计数及体长测量结果分析
YOLOv8-Pose-GE 在检测时会使用红色矩 形框标注图像中的家蚕,并按顺序依次用直线连 接家蚕关键点并计算像素长度,根据实际拍摄范 围和图片分辨率获取的比例尺得到真实体长,然 后在家蚕关键点连线附近显示家蚕的真实体长, 同时在图像左上角显示图像中家蚕数量,如图9 所示(以3龄家蚕为例)。
2.2.1 家蚕计数结果分析
由于不同龄期家蚕饲 养密度不同,实际拍摄时出现在画面中家蚕数量 差异较大,故不再单独分析各个龄期计数结果, 而是从家蚕拍摄录像中随机截10帧图片进行计 数结果分析,结果如图11所示。
模型的MAE_C为1.6,表明模型预测值与真 实值之间的平均差异为1.6个单位,这一误差水 平在可接受范围内,表明了模型具有一定的准确 性。同时模型的MRE_C为3.6%,这表明模型

预测误差相对于真实值的比例较小,证实了模型具 有较高的相对准确性。此外,模型的SDM_C为 2.1,反映了模型测量值与实际值之间差异的离 散程度,这一值相对较低,表明模型具有较好的 一致性和稳定性。由图 11 得,模型在检测图片 中家蚕数量较少即家蚕分布稀疏(如图 11 中的 1,2)的情况下,计数效果较好,而在检测图片中 家蚕数量较多即家蚕分布密集(如图11中的9, 10)的情况下,计数效果相对较差,后期考虑通过 增加家蚕分布密集图片的标注数量进行改善。 总体而言,模型的MAE_C、MRE_C和SDM_C数 据整体较好,在计数任务中表现出了较高的性 能,能够在家蚕养殖中为饲养人员提供可靠的技 术支持。

2.2.2 家蚕体长检测结果分析
在对家蚕的实际 体长进行测量时,若直接触碰家蚕,家蚕会因应 激反应而收缩身体,这将影响测量的准确性。故 使用测距软件Image J的测量值为实际值。前文 训练时使用 150 张图片,共 3 470 头家蚕数据集 进行训练,得到网络模型。当前每个龄期随机挑 选 8 头,为体长测量分析的泛化证明,测量结果 如图12到15所示。

由表4可知,在测量的误差方面,1龄的误差 最大 ,MAE_L 和 MRE_L 为 20.01 px 和 9.59%, 2 龄的误差相对 1 龄有减小,3 龄的误差为小蚕

阶段最小,MAE_L 和 MRE_L 分别为 17.82 px 和 3.24%;大蚕阶段,4 龄的误差较小蚕期降低显 著,尤其MAE_L,较前一龄期降低4.13 px,5龄的

MAE_L 和 MRE_L 分别为 12.29 px 和 1.87%,误 差为全龄期最低。在 SDM_L 方面,即数据的离 散程度方面,1 龄的离散程度最高,为 9.83 px, SDM_L整体逐龄降低,但是在4龄反而较前一龄 期升高,推测为 4 龄的第1头家蚕测量结果与真 实值相差较大,而整体测量值与真实值相差小, 导致其 SDM_L 增大 ;5 龄的 SDM_L 为最低的 4.15 px,表明模型对 5 龄家蚕测量稳定性最高。 在PCC中,各个龄期数据分布无特殊规律,其中 1龄的测量误差最大及数据离散性最高,测量效 果最差,PCC为全龄期最差的0.902 1;虽然4龄 的MAE_L、MRE_L和SDM_L均不是全龄期最优 值,但是相对其他龄期,其测量值能紧随真实值 变化,使其PCC达到全龄期最优的0.992 6,总体 而言,全龄期的 PCC 均在 0.9 以上,表明测量值 与实际值之间的有良好的相关性,可靠性较高。

综上所述,随着龄期的增加,模型测量的性 能指标逐渐提升,表现为MAE_L和MRE_L逐龄 降低,SDM_L在 龄后总体趋势降低,3龄后稳定 在 4.5 px 以下。家蚕进入大蚕期之后,4 龄和 5龄性能指标提升较大,说明本文算法在大蚕的 测量上表现更好,推测为大蚕目标较大,其关键 特征更容易被算法捕捉。1龄性能指标最差,考 虑后期增加数据标注量以提高准确性[18] ,但其皮 尔逊相关系数仍在0.9以上,证明测量值与真实 值有较高的相关性,仍有较强的参考意义。
3 总结
本文针对传统家蚕计数和体长测量方法耗 时费力且依赖经验,难以实现对家蚕数量和家蚕 体长测量的快速、准确监控的问题,以饲料育家 蚕为对象,构建了家蚕关键点检测数据集,提出 了YOLOv8-Pose-GE关键点检测模型,该模型在 原有 YOLOv8-Pose 的基础上进行改进,主要于 Backbone 部分加入 GAM 注意力机制,以减少信 息损失,同时提升模型的特征提取能力,Neck 部 分内添加 ECA 注意力机制,提升模型对重要特 征的感知能力,所提出的 YOLOv8-Pose-GE 的 mAP 达到 94.7%,优于其他常用关键点检测算 法。该算法可以定位并按顺序依次用直线连接 家蚕关键点,由连线长度得到家蚕体长,同时实 现家蚕计数。本文对家蚕拍摄录像中随机截取 10 帧图片进行计数实验,其 MAE_L、MRE_L 和 MSD_L由分别为1.6头、3.6%和2.1头,说明模型 具有较高的准确性的同时具有较高的稳定性。 使用该算法对40头家蚕(1-5龄家蚕中各随机取 8头)进行测量实验,由结果分析得,该算法具有 家蚕龄期越高,测量效果越好的特点,其中 5 龄 测量效果好,其MAE_L、MRE_L、MSD_L和PCC 为 12.29 px、1.87%、4.15 px 和 0.977。总体可以 满足家蚕计数及体长测量的需要,为提高家蚕养 殖的质量,加强家蚕品种选育提供技术支持。