Turbot fish egg recognition and counting method based on CBAM-UNet
-
摘要:
大菱鲆 (Scophthalmus maximus) 鱼卵数量的精准统计是影响其苗种优选过程的重要因素。由于大菱鲆鱼卵体积微小、透明度高且容易粘连,目前人工操作效率低下且误差较大。为了实现鱼卵的自动、快速、准确计数,根据大菱鲆鱼卵的成像特点,提出了一种基于卷积块注意力机制和U形卷积神经网络 (CBAM-UNet) 的大菱鲆鱼卵计数方法。首先,设计了一套由工业相机、漫反射光源和图像采集箱构成的标准化鱼卵采样结构,获取无影的高清鱼卵图像,构建鱼卵图像样本集;随后,以UNet网络作为基础语义分割模型,针对鱼卵图像中无法有效分割鱼卵与背景边界及细节等问题,进一步引入了双重注意力机制,以增强模型对鱼卵特征的表达能力,提高分割精度;最后,根据分割后鱼卵面积、拍摄高度及鱼卵数量等构建多元线性回归模型,实现鱼卵的精准计数。结果表明,所提出的基于CBAM-UNet的鱼卵识别计数方法能有效提高大菱鲆鱼卵的计数精确度,平均计数误差为6.32%,低于基于其他模型和人工统计方法(质量比对法)的平均计数误差。
Abstract:The accurate statistics of the number of turbot (Scophthalmus maximus) eggs is a crucial factor affecting the seedling selection process. Due to the small size, high transparency, and easy adhesion of turbot eggs, the manual counting methods are inefficient and prone to significant errors. To achieve automated, rapid and accurate counting of turbot eggs, a turbot fish egg counting method based on convolutional block attention mechanism and U-shaped convolutional neural network (CBAM-UNet) is proposed. According to the imaging characteristics of turbot eggs, a standardized fish egg sampling structure composed of an industrial camera, a diffuse reflection light source, and an image acquisition box was first designed and developed to obtain shadow-free high-definition egg images and construct a fish egg image sample set. Then, with UNet network as the basic semantic segmentation model, a dual attention mechanism was further introduced to enhance the segmentation of the boundaries and details of fish eggs and the background, so as to improve the expression ability of the model to the egg features and the segmentation accuracy. Finally, a multiple linear regression model was constructed based on the segmented fish egg area, shooting height, and the number of fish eggs to achieve accurate counting of the fish eggs. Experimental results show that the proposed recognition and counting method based on CBAM-UNet can effectively improve the accuracy of fish egg counting, with an average counting error of 6.32%, lower than the average counting error of other models and manual statistical methods (Quality comparison method).
-
Keywords:
- Scophthalmus maximus /
- Egg counting /
- Semantic segmentation /
- U-Net /
- CBAM /
- Linear regression analysis
-
性别鉴定是鱼类生物学研究的重要组成部分,对鱼类的资源评估和保护十分重要[1]。然而,多数鱼类在非繁殖期缺乏明显的外部性别特征,导致性别识别面临极大挑战[2]。目前,对于雌、雄形态差异不明显的鱼类,常用的鉴定方法有解剖观察[1]、性腺组织切片[3]、超声波技术[4]及性别特异性DNA分子标记[5]等。这些鉴定方法虽然准确率较高,但需侵入鱼体内部,导致检测鱼死亡,且工作量大、耗时长[6]。相比之下,利用大量鱼类样本的传统形态测量数据和框架指标来进行鉴定是一种更为有效的方法,对尖头塘鳢 (Eleotris oxycephala)[2]、暗纹东方鲀 (Takifugu fasciatus)[7]、日本鲐 (Scomber japonicus) 和澳洲鲐 (S. australasicus)[8]等的鉴定准确率可达70%~89%。但该方法存在仅依赖直线距离表达复杂的生物形态[9],忽视整体形态变化与几何信息的完整性[10],且易出现参数重叠,阻碍对局部形态差异的识别等[11-12]局限性。因此,传统方法难以精确揭示生物形态演变规律,而如何高效获取与精准分析生物样本形态信息,已成为生物学研究的核心问题。直至1980—2000年,Bookstein和Rohlf等开创了几何形态测量学 (Geometric morphometrics, GM) 这一新方法[13-15],该方法摒弃了数据的不同源性、不可重复性以及大小和形状无法分开讨论的缺点,同时能够将形态量化和可视化,从而更好地反映物种的形态变化规律,被广泛应用于各个领域。
秋刀鱼 (Cololabis saira) 隶属于颌针鱼目、竹刀鱼科、秋刀鱼属,是冷温性中上层高度洄游鱼类,广泛分布于西北太平洋亚热带到温带海域[16]。国内外对于秋刀鱼的研究主要集中在生物学[17]、渔场分布[18-19]、渔情预报[20]以及渔具、渔法[21]等方面,其形态学研究多集中于耳石在年龄生长与空间分布等方面的应用[22],而对雌、雄个体形态差异的研究匮乏。此外,其性别鉴定依赖于性腺的解剖观察,虽然两者性腺在形态、大小、颜色之间有着较为明显的差异[23],但鉴定过程易受个体大小、发育阶段及人为操作误差等影响,且必须对样本进行剖杀,造成样本资源浪费,因此需要一个更为有效且非损伤的方法[24]。几何形态测量学的地标点法,指通过选取显著特征点、收集数据,并运用统计学方法对比组间差异,可以有效揭示形态特征变化,具有数据采集简便、分析快捷的优势[25]。鉴于上述考虑,本研究首次运用该方法,以秋刀鱼雌、雄个体为对象,通过选取特征点、采集信息并进行统计分析,旨在揭示其两性形态差异,评估地标点法在秋刀鱼性别鉴定中的效果,以期提供便捷、高效的鉴定手段,丰富秋刀鱼的形态学研究。
1. 材料与方法
1.1 材料
秋刀鱼样本由蓬莱京鲁渔业有限公司的“鲁蓬远渔027”生产船在西北太平洋公海海域采集,采样时间为2022年5—11月,采样范围为149°E—170°E,40°N—48°N (图1)。记录捕捞地点和时间后,对样本进行冷冻储存。随机采集样本161 尾,通过解剖观察性腺以获取其性别信息,该步骤实施双盲鉴定策略,即由2位独立人员分别进行,对比结果以验证其一致性,确保研究数据准确。鉴定结果显示161尾样本中,150尾可以准确鉴定性别,8尾因性腺特征不明显、样本保存状态不佳或操作失误,致使其性别无法准确鉴定,3尾因判定结果存在分歧,同样视作性别无法准确鉴定。因此,剔除11尾无法鉴定性别的个体后,最终以150尾样本作为研究对象,将其分为两批;第1批共107尾,雌性52尾、雄性55尾,用于地标点法的形态分析以及分类模型的构建;第2批共43尾,雌性25尾、雄性18尾,将该批样本带入所构建的分类模型进行性别鉴定,比对预测性别和实际性别,用于检验该模型的实际应用,即对性别未知秋刀鱼的鉴定准确率。一般来说,性成熟的秋刀鱼体长为250~314 mm,且雌、雄个体的体长无明显差异[26],样本的具体信息见表1。
表 1 秋刀鱼的采样信息Table 1. Sampling information of C. saira样本批次
Batch of samples性别
Sex样本数
Number of samples/尾体长 Body length/mm 体质量Body mass/g 范围
Range均值±标准差
Mean±SD范围
Range均值±标准差
Mean±SD第1批
Batch 1雌♀ 52 219~281 260.65±13.36 65.3~109.2 75.90±12.92 雄♂ 55 237~301 272.75±10.53 72.9~115.3 97.71±12.73 第2批
Batch 2雌♀ 25 235~297 258.40±10.61 79.2~111.6 92.56±10.14 雄♂ 18 244~286 266.86±11.37 76.3~117.9 94.12±13.62 1.2 图像的获取和处理
在保证秋刀鱼鱼体形态保存完好的情况下,对样本进行解冻和固定,确保样本处于自然伸展状态,然后添加比例尺,使用相机对其进行拍照。本研究使用的相机型号为Nikon D800,将相机固定在三脚架上并使用无线快门进行拍摄,防止抖动。将样本平放至桌面,始终保持镜头垂直于样本,且间距在40 cm左右。为保证后续形态分析的响应效率,对样本图片批量进行灰度化处理,降低图像中的噪音和冗余信息,便于后续使用。
1.3 几何形态测量学分析
1.3.1 地标点的建立和提取
地标点在形态分析中可分为3种类型[27]:I型地标点指不同组织间的交点,可被具体定位;II型地标点指形态结构中的凹凸点;III型地标点指形态结构中的极值,由相对其他地标点位置定义,严格来说算半地标点[28]。结合地标点的定义和具体要求,本研究选取了17个地标点,其中4、7、11、12、14—17为I型地标点,2、3、5、6、8、9、13为II型地标点,1和10为III型地标点 (图2、表2)。使用R语言geomorph包中的“digitize2d”函数设置好比例尺并对样本进行地标点的构建,此过程重复2遍取平均值,以避免测量误差[29],然后进行最小平方和法则回归分析检验地标点选取的有效性,最后使用“readmulti.tps”函数读取坐标数据供后续分析使用。
表 2 地标点类型与定义Table 2. Landmark types and definition地标点类型
Landmark type定义
DefinitionI型地标点 Landmark I 4 眼中心 7 胸鳍起点 11 背鳍起点 12 尾鳍基部上端 14 尾鳍基部下端 15 臀鳍起点 16 消化道末端开口 17 腹鳍起点 II型地标点 Landmark II 2 口裂末端 3 眼前缘 5 眼后缘 6 鳃盖上缘 8 鳃盖后缘 9 以7点向上作垂线与鱼体的交点 13 尾柄末端 III型地标点 Landmark III 1 吻端 10 躯干前部最大弯曲处 1.3.2 平均形和薄板样条分析
对于第1批107尾秋刀鱼,使用“gpagen”函数进行广义普鲁克提斯分析 (Generalized procrustes analysis, GPA),对所有样本的地标点进行平移、旋转和缩放,达到叠印的效果,排除非形态变异的干扰[27,30],计算所有样本地标点的平均坐标,得到平均形。根据平均形使用“gm.prcomp”函数进行相对扭曲主成分分析,并保存输出后所有样本的相对扭曲得分 (Relative warps scores, RW)矩阵供后续分析使用[31]。使用“plotRefToTarget”函数进行薄板样条分析 (Thin-Plate spline, TPS)[32],得到各样本的形变网格图,并将网格图与平均形进行比较,以实现秋刀鱼雌、雄形态差异的可视化。以上所有分析均在R语言4.2.0版本中的“geomorph”包中完成。
1.3.3 判别分析
根据第1批107尾秋刀鱼的相对扭曲得分,使用R语言MASS包中的“lda”函数和caret包中的“train”函数分别进行逐步判别分析 (Stepwise discriminant analysis, SDA)和交叉验证 (Cross-Validation, CV),构建并评估性别鉴定模型,判别方法采用Bayes法,交叉验证采用留一交叉验证法 (Leave-One-Out Cross-Validation, LOOCV)[32]。再将第2批的43尾秋刀鱼沿用相同的地标点构建方法,与第1批的107尾同时进行相对扭曲主成分分析,将得出的相对扭曲得分带入所构建的鉴定模型中,再通过解剖确定实际性别,与模型预测结果对比,从而验证模型的鉴定准确率。
2. 结果
2.1 几何形态分析
最小平方和法则回归分析结果显示,本研究中的秋刀鱼鱼体地标数据点的切空间距离(y轴)和普氏距离(x轴)的回归系数为0.999 973,接近1,说明本研究所选取的地标点有效,可用于下一步分析。
根据地标点坐标数据计算得出的秋刀鱼雌、雄鱼体的平均形,以及所有地标点的叠印效果如图3所示。根据平均形进行相对扭曲主成分分析,结果显示共提取了30个主成分,其中第1主成分 (PC1) 贡献率为63.43%,第2主成分 (PC2) 贡献率为11.79%,累积贡献率为75.22%,说明前2个主成分可以概括秋刀鱼雌、雄个体间的主要形态差异。PC1和PC2的散点图见图4,雌、雄个体间有少量散点重叠且形成各自较为集中的2个区域,说明主成分散点图的区分效果较好。17个地标点在相对扭曲主成分分析过程中的贡献率显示,I型地标点累积贡献率为57.94%,其中地标点4和7的贡献率较高,分别为46.47%和5.11%;II型地标点累积贡献率为41.83%,其中地标点3和5的贡献率较高,分别为17.21%和15.14%;III型地标点的累积贡献率仅为0.197%,说明在秋刀鱼雌、雄个体的形态区分中,I型和II型地标点的作用较大,III型地标点的作用较小 (表3)。
表 3 每个地标点在相对扭曲主成分分析中的贡献率Table 3. Contribution rate of each landmark on relative warps地标点
Landmark贡献率
Contribution rate/%1 0.15 2 1.53 3 17.21 4 46.47 5 15.14 6 4.62 7 5.11 8 0.19 9 0.14 10 0.05 11 0.01 12 1.03 13 3.01 14 0.88 15 2.15 16 2.31 17 0.02 2.2 形态差异可视化
通过薄板样条分析对秋刀鱼雌、雄个体的鱼体网格进行扭曲变形,得出网格形变图 (图5)。结果显示,相对于网格平均形而言,秋刀鱼雌、雄个体的形态差异在地标点3、4、5、9、10、12、13和14上区别较为明显 (眼部、躯干前部和尾部)。这些形态差异具体表现为雌性的眼中心往眼后缘偏移而雄性往眼前缘偏移;雌性躯干部最大弯曲处较雄性更加接近头部;雌性尾鳍基部下端相较于上端向左偏移且远离尾柄末端,而雄性的尾鳍基部下端与上端较为对齐且略微向右偏移,同时靠近尾柄末端。
2.3 判别分析
将第1批107尾样本的30个相对扭曲得分建立Bayes判别函数,采用逐步判别分析和交叉验证的方法进行判别分析。结果显示,在进行逐步判别分析时,RW1、RW4、RW5、RW6、RW7、RW8、RW18、RW25等8个变量被纳入判别函数,同时组平均值的同等检验(One-way ANOVA)显示,这8个变量的均值均不相等 (p<0.05),表明可以用于预测模型的构建。采用Wilks' Lambda 检验对由8个相对扭曲得分构建的鉴定模型进行残余区别力分析,结果显示模型性能较好 (p<0.01),故可作为判别分析的有效依据,判别方程系数见表4。对第1批的107尾秋刀鱼进行性别回判,结果显示,52尾雌性里有6尾被错判,判别正确率为88.5%;55尾雄性里有3尾被错判,判别正确率为94.5%;综合判别正确率为91.6%。交叉验证结果显示,52尾雌性里有8尾被错判,判别正确率为86.4%;55尾雄性里有4尾被错判,判别正确率为92.7%;综合判别正确率为88.8% (表5)。尽管交叉验证的正确率低于逐步判别分析,但两者均保持在较高水平,表明模型预测效果较好,具有良好的泛化性能。
表 4 秋刀鱼鱼体的雌雄判别方程系数Table 4. Coefficients of female and male discrimination functions for body of C. saira性状
Characteristics方程1雌性
Function 1 for female方程2雄性
Function 2 for maleRW1 −30.086 26.344 RW4 95.254 −91.117 RW5 86.747 −54.486 RW6 122.796 −99.142 RW7 −59.675 54.684 RW8 −42.726 132.809 RW18 529.118 −580.991 RW25 385.023 −363.849 常数Constant −1.532 −1.466 注:RW表示相对扭曲得分。 Note: RW represents relative warps scores. 表 5 第1批秋刀鱼的雌雄判别结果Table 5. Results of female and male discrimination in Batch 1 of C. saira项目
Item实际
性别
Actual
sex预测性别
Predicted sex判别正确率
Identification
accuracy/%综合
正确率/%
Total
accuracy/%雌性
Female雄性
Male逐步判别分析
SDA雌♀ 46 6 88.5 91.6 雄♂ 3 52 94.5 交叉验证
CV雌♀ 44 8 86.4 88.8 雄♂ 4 51 92.7 利用该模型对第2批43尾秋刀鱼进行性别鉴定并解剖比对实际性别,结果显示,43尾秋刀鱼中,实际雌性有25尾,其中有3尾被错判,判别正确率为88%;实际雄性有18尾,其中有2尾被错判,判别正确率为88.9%;综合判别正确率为88.45% (表6),判别正确率较高,表明模型在应对性别未知的样本时仍能保持稳健的预测效能。
表 6 判别方程对第2批秋刀鱼的雌雄判别结果Table 6. Results of function for female and male discrimination in Batch 2 of C. saira实际性别
Actual sex预测性别 Predicted sex 判别正确率
Identification
accuracy/%综合
正确率
Total
accuracy/%雌性
Female雄性
Male雌性 Female 22 3 88.0 88.45 雄性 Male 2 16 88.9 3. 讨论
3.1 地标点方案的选取
几何形态测量学的地标点法中,地标点位置和数量的选取很大程度上会直接影响其实际应用效果。不恰当的位置选择可能导致重要形态特征遗漏,而数量增加虽能提升特征描述的精确度,但过量可能导致数据冗余,数量不足则无法充分描述形态[33]。此外,样本量同样影响形态分析结果[34]。本研究首次尝试将该技术应用于秋刀鱼的鱼体形态研究,从而实现对秋刀鱼雌、雄个体形态差异的分析和鉴定,其地标点的位置和数量均根据地标点的具体定义和原理进行构建。结果表明I型和II型地标点对于形态区分的效果较好,III型地标点的作用不明显,其中眼部地标点3、4、5的贡献率较高,在选取时不可忽略。这可能与秋刀鱼的趋光性有关,雌性秋刀鱼在产卵后会改变以往垂直运动的习性且眼睛对光的反应会变得不敏感[35],从而导致眼部形态与雄性产生差异。尽管最小平方和回归验证了地标点的有效性,形态差异与判别分析表现良好,但地标点方案与样本量对形态分析的具体影响尚待探究。未来研究需明确不同方案与样本量下的最优配置,以优化形态分析效能。
3.2 几何形态测量学在水生动物中的应用
几何形态测量学方法因其诸多优势,已被广泛应用在水生动物的群体鉴别[36]、个体形态发育[37]、分类鉴定[38]等研究领域。张秀霞等[39]采用地标点法对不同群体间唐鱼 (Tanichthys albonubes)的鱼体形态进行研究,结果显示其群体形态差异主要在眼径大小和头部形态上,且群体鉴别的综合正确率达94.8%,能有效识别唐鱼群体。韩霈武等[40]采用地标点法对2个群体柔鱼 (Ommastrephes bartramii) 的胴体进行形态学分析,结果显示2个群体在不同的胴长组间有不同的生长模式,且不同群体的个体形态发育在不同生长阶段变化规律不一致。侯刚等[41-42]运用地标点法分别对4种金线鱼属 (Nemipterus)和4种白姑鱼属 (Pennahia) 进行耳石识别研究,结果显示分类鉴定的综合正确率分别达0.55%和86.7%。本研究利用地标点法对秋刀鱼的鱼体进行形态学分析,结果显示秋刀鱼雌、雄个体的主要形态差异位于眼部、躯干前部和尾部,并已经可以有效地进行性别鉴定,对于第1批和第2批样本的综合判别正确率达91.6%和88.45%,准确率较高。同时交叉验证也显示模型稳定性较高,在秋刀鱼雌、雄个体的形态差异分析与鉴定中表现出较好的效果,表明该方法可以作为秋刀鱼形态学分析的有效手段,在秋刀鱼的个体形态发育和群体识别等方面同样有着较好的应用前景。
3.3 判别模型的适用性
判别分析是利用样本的已知分类信息来构建判别函数,通过样本回判和交叉验证评估模型准确性与稳定性,面对新的样本只需将其特征值带入判别函数即可判别其归属。本研究在性别鉴定中,尽管模型正确率高,但仍存在错判现象,可能原因包括地标点人为选取产生的主观误差、秋刀鱼样本未完全解冻导致其形态非自然伸展以及拍摄误差等。
在判别函数的使用上,传统形态测量学模型参数 (如体长、全长等) 可在测量后直接带入判别模型以确定新样本的归属。相比之下,几何形态测量学模型参数为相对扭曲得分,需通过新、旧样本共同进行相对扭曲主成分分析获得。然而,这会引发2个问题:首先,经新旧样本共同分析后,原先用于构建模型的旧样本相对扭曲得分会随之发生改变,此时继续沿用原始模型对新样本进行性别鉴定是否合理;其次,是否应该从经共同分析而改变后的相对扭曲得分中,选择已知性别的旧样本重新构建判别模型,再用于新样本的鉴别。哪种方法更为可靠,尚未见相关研究。
本研究以第1批的107尾样本构建判别模型并进行性别回判,对于第2批43尾新样本,选择直接应用第1批样本构建的原始模型进行性别鉴定,且取得了较高的鉴定正确率。本研究认为,对于第1种方法,尽管旧样本相对扭曲得分因共同分析而有所变化,但如果原始模型构建时采用的统计方法具备稳健性,且新样本的地标点数据处理遵循与旧样本相同的标准化流程,理论上该模型仍应保持一定的泛化能力,适用于新样本的性别鉴定。此方法的优势在于操作简便,避免了模型的重新训练,节约了时间和计算成本。对于第2种方法,选择重新构建判别模型,再用于对新样本的鉴定,可以捕捉到可能因数据重分析带来的模式变化,以提高模型对新样本的适应性和预测精度。2种方法都有一定的适用条件,第1种适用于原始模型性能稳定、新样本处理与旧样本一致、重新分析旧样本得分变化不大或对模型影响较小的情况;第2种适用于新样本数量充足且具有代表性或希望捕捉可能的模式变化以提升预测精度的情况。在实际应用中,可以结合实际情况、数据特性以及对模型性能的要求,权衡选择适合的方法。此外,可以进行交叉验证或独立测试集验证,以比较2种方法下模型对新样本的预测性能,从而做出最优决策。
4. 结论
本研究主要采用几何形态测量学的地标点法,进行了秋刀鱼雌、雄个体的形态差异分析和鉴定。结果表明,秋刀鱼雌、雄个体的主要形态差异位于眼部、躯干前部和尾部,同时利用第1批的107尾秋刀鱼构建了判别模型,该模型在用于性别回判和第2批的43尾秋刀鱼性别鉴定时表现出了较高的正确率。可见,将几何形态测量学的地标点法用于秋刀鱼形态分析和性别鉴定是可行的。本研究的形态分析和判别结果虽较好,但仍存在一定不足,主要体现在2点:1) 未系统评估地标点选取方案及样本量对形态分析的具体影响;2) 采样范围较广,区域间形态差异对分析结果的潜在作用仍是一个未经充分探讨的问题。因此,后续应侧重于以下2个方面:1) 通过对比分析不同地标点方案与样本量下模型的表现,找出最佳的分析配置;2) 纳入区域因素,通过细化样本区域的划分与比较分析,揭示并校正区域特异性形态特征对总体判别效能的可能影响,完善秋刀鱼的形态学理论基础,进而为秋刀鱼的形态学分析提供更加准确、有效的研究方法。
-
表 1 消融实验结果
Table 1 Results of ablation experiment
模型
Model空间注意力
CAM通道注意力
SAM平均交并比
MioU/% ↑平均像素识别准确率
mPA/% ↑戴斯系数
DSC/% ↑每秒浮点运算次数
FLOPS/G模型参数量
Parameter/MU形卷积神经网络U-Net 98.3 99.1 98.6 97.3 1.94 模型1 Model 1 √ 98.3 99.2 98.7 97.4 1.96 模型2 Model 2 √ 98.5 99.3 98.9 97.4 1.94 模型3 Model 3 √ √ 98.7 99.8 99.2 97.5 1.96 注:“√”表示模型采用了该模块;“↑”表示该参数值越大越好。 Note: "√" indicates that the model uses this module, and "↑" means that the larger the parameter value, the better. 表 2 不同图像分割模型的实验结果
Table 2 Experimental results of differernt image segmentation models
模型
Model平均交并比
MioU/% ↑平均像素识别准确率
mPA/% ↑戴斯系数
DSC/% ↑每秒浮点运算次数
FLOPS/G模型参数量
Parameter/M基于K均值聚类的分割方法KSeg 76.5 82.4 79.4 — — 全卷积神经网络U-Net FCN 92.3 94.7 93.7 215.0 0.518 嵌套U形卷积神经网络U-Net++ 97.4 99.2 98.2 123.0 0.112 基于通道注意力的U形卷积神经网络CBAM-UNet 98.7 99.8 99.2 97.5 1.960 注:“↑”表明该参数值越大越好 Note: "↑" indicates that the larger the parameter value, the better. 表 3 鱼卵数量统计结果
Table 3 Results of fish eggs counting statistics
方法 Method
(计数误差△ Count Error△)实际鱼卵数量 Actual number of eggs 绝对误差百分比
APE/%↓938 1 324 3 018 3 211 4 684 5 276 6 286 基于K均值聚类的分割方法KSeg −213 −394 −805 −893 −1 154 − 1543 −1 956 27.4 质量比对法MCM +62 +176 +482 +789 +816 +1 324 + 1214 17.47 全卷积神经网络U-Net FCN −119 −202 −401 −468 −629 −863 −1 158 14.86 U形卷积神经网络U-Net −64 −110 −203 −235 −242 −409 −608 7.39 嵌套U形卷积神经网络 U-Net++ −61 −107 −208 −219 −239 −407 −599 7.23 基于通道注意力的U形卷积神经网络CAM-U-Net −59 −103 −197 −224 −234 −397 −598 7.09 基于空间注意力的U形卷积神经网络SAM-UNet −57 −98 −196 −221 −237 −398 −594 6.99 基于卷积块注意力的U形卷积神经网络CBAM-UNet −45 −87 −176 −204 −217 −376 −563 6.32 注:“↓”表明该参数值越小越好。 Note: "↓" indicates that the smaller the parameter value, the better. -
[1] 陈宏博, 佟志明, 都昆仑. 大菱鲆的海水养殖技术[J]. 农民致富之友, 2021(14): 167. doi: 10.3969/j.issn.1003-1650.2021.14.162 [2] 于冠杰. 计算机人工智能在作物病害识别与防治中的应用[J]. 分子植物育种, 2024, 22(12): 4146-4151. [3] 汤永华, 张志鹏, 林森, 等. 基于深度学习的鱼类识别相关技术研究现状及展望[J]. 海洋渔业, 2024, 46(2): 246-256. [4] LI D L, MIAO Z, PENG F, et al. Automatic counting methods in aquaculture: a review[J]. J World Aquac Soc, 2021, 52(2): 269-283. doi: 10.1111/jwas.12745
[5] 李琼, 姚遥, 杨青春, 等. 基于MATLAB图像处理的大豆颗粒检测方法研究[J]. 中国农学通报, 2018, 34(30): 20-25 [6] 司艳丽, 朱伟兴. 基于RGB-D图像的重叠颗粒物分层计数[J]. 信息技术, 2019, 43(5): 81-86 [7] 张杭文, 袁国良, 张云, 等. 基于数字图像处理的鱼卵计数的研究[J]. 电子设计工程, 2013(14): 190-193. [8] ARTHUR D E, FALKE J A, BLAIN-ROTH B J, et al. Alaskan yelloweye rockfish fecundity revealed through an automated egg count and digital imagery method[J]. N Am J Fish Manag, 2022, 42(4): 828-838. doi: 10.1002/nafm.10768
[9] 王硕, 范良忠, 刘鹰. 基于计算机视觉的大菱鲆鱼苗计数方法研究[J]. 渔业现代化, 2015, 42(1): 16-19. [10] 方志强, 肖书浩, 熊禾根, 等. 基于机器视觉及SVM的零件产品计数系统[J]. 制造业自动化, 2018, 40(7): 37-40, 48. [11] 刘腾飞, 刘威. 基于Matlab 的肿瘤细胞识别系统[J]. 电子设计工程, 2021, 29(6): 1-5. [12] 高常鑫, 徐正泽, 吴东岳, 等. 深度学习实时语义分割综述[J]. 中国图象图形学报, 2024, 29(5): 1119-1145. [13] 郭婧, 王飞. 多尺度特征融合与交叉指导的小样本语义分割[J]. 中国图象图形学报, 2024, 29(5): 1265-1276. [14] 蔡改贫, 刘占, 汪龙, 等. 基于形态学优化处理的标记符分水岭矿石图像分割[J]. 科学技术与工程, 2020, 20(23): 9497-9502. [15] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention–MICCAI. Berlin: Springer, 2015: 234-241.
[16] DU G T, CAO X, LIANG J M, et al. Medical image segmentation based on U-Net: a review[J]. J Imag Sci Technol, 2020, 64(2): 20508.1-20508.12. doi: 10.2352/J.ImagingSci.Technol.2020.64.2.020508
[17] 刘祥, 田敏, 梁金艳. 基于RCH-UNet的新疆密植棉花图像快速分割及产量预测[J]. 农业工程学报, 2024, 40(7): 230-239. [18] LIN D, LI Y, PRASEAD S, et al. CAM-guided multi-path decoding U-Net with triplet feature regularization for defect detection and segmentation[J]. Knowl-Based Syst, 2021, 228: 107272. doi: 10.1016/j.knosys.2021.107272
[19] ZHOU Z, SIDDIQUEE M M R, TAJBAKHSH N, et al. Unet++: redesigning skip connections to exploit multiscale features in image segmentation[J]. IEEE Trans Med Imag, 2019, 39(6): 1856-1867.
[20] CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV). Berlin: Springer, 2018: 833-851.
[21] 汪华登, 刘金, 黎兵兵, 等. 融合结构化卷积和双重注意力机制的轻量级眼底图像分割网络[J]. 计算机辅助设计与图形学学报, 2024, 36(5): 1-16. [22] VASWANI A, SHAZEER N, PARMAR, et al. Attention is all you need[C]//Advances in Neural information Processing Systems (NIPS). Cambridge: MIT Press, 2017: 6000-6010.
[23] CHEN B L, HUANG Y, XIA Q Q, et al. Nonlocal spatial attention module for image classification[J]. Inter J Adv Robotic Syst, 2020, 17(5): 1-10.
[24] HU J, SHEN L, ALBANIE S, et al, Squeeze-and-excitation networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Salt Lake City: IEEE, 2018: 7132-7141.
[25] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision (ECCV). Berlin: Springer, 2018: 3-19.
[26] EVERINGHAM M, ESLAMI S M A, van GOOL L, et al. The pascal visual object classes challenge: a retrospective[J]. Int J Comput Vision, 2015, 111: 98-136. doi: 10.1007/s11263-014-0733-5
[27] ADADI M, AGARWAL A, BARHAM P, et al. Tensorflow: large-scale machine learning on heterogeneous distributed systems[J]. arXiv e-prints, 2016: arXiv: 1603.04467.
[28] CHEN L C, ZHU Y, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV). Berlin: Springer, 2018: 801-818.
[29] DICE L R. Measures of the amount of ecologic association between species[J]. Ecology, 1945, 26(3): 297-302. doi: 10.2307/1932409
[30] CHEN J, KAO S H, HE H, et al. Run, don't walk: chasing higher FLOPS for faster neural networks[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Vancouver. Piscataway, NJ: IEEE, 2023: 12021-12031.
[31] HYNDMAN R J, ATHANASOPOULOS G. Forecasting: principles and practice[M]. Melbourne: OTexts, 2014: 46-52.
[32] LI Q G, ZHENG H Z, CUI T W, et al. Identification and location method of strip ingot for autonomous robot system using kmeans clustering and color segmentation[J]. IET Control Theory A, 2023, 17(16): 2124-2135. doi: 10.1049/cth2.12481
[33] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA. Piscataway, NJ: IEEE, 2015: 3431-3440.