醋醋百科网

Good Luck To You!

CEH-YOLO:基于 YOLO 的水下目标检测复合增强模型

“水下拍到的照片糊成一锅粥,鱼都认不出自己,AI还能找得到?

刷到这条吐槽,潜水员集体点头。

别急,CEH-YOLO来了,4.4MB的小模型,156帧/秒狂飙,专治水下“找不着北”。

先说痛点:深海光线像被搅浑的牛奶,颜色跑偏、颗粒噪点、目标小得跟芝麻似的。

传统算法要么算力吃紧,要么直接摆烂。

CEH-YOLO把YOLOv8拆开重装,塞进三个外挂——

HDA模块,可变形注意力像橡皮泥,自动把采样点掰到鱼眼、螺旋桨裂缝这些关键位置,模糊背景直接虚化,省得干扰。

ESPPF模块,多尺度特征打包成“压缩饼干”,颜色纹理一次嚼碎,重叠的小目标也能掰开看清。

CD模块,并行小助手专门盯不同尺寸的特征图,漏检?

不存在的。

损失函数换成WIoU v3,边界框回归不再“手抖”,框得准,跑得还快。

实测DUO数据集88.4%mAP,UTDAC2020拿到87.7%,比上一代YOLOv7-CHS轻一半,速度却翻倍。

有人吐槽:Transformer模型参数爆炸,EfficientDet又挑硬件。

CEH-YOLO直接砍掉冗余,11.6 GFLOPs,树莓派都能带得动。

潜水艇、ROV、甚至浮标摄像头,插上就能跑,实时画面里小螺丝钉都标红圈。

顺带把图像增强也打包了。

Retinex算法先给画面“美白”,深度学习再补细节,省得额外开一条预处理流水线。

一次前向传播,增强+检测全搞定,训练数据不够?

官方说随便拍几张水下废片也能凑数,别太离谱就行。

小目标怎么救?

FPN-PAN结构像叠积木,语义+定位信息层层加码,比FasterR-CNN那种两阶段磨叽法快得多。

单阶段直接出框,鱼群擦身而过也能瞬间锁定。

个人看法:这模型最香的是“不挑场景”。

珊瑚礁、沉船、养殖网箱,光线再离谱,CEH-YOLO都能稳住。

唯一小遗憾——目前只在公开数据集上跑,真放到漆黑一片的深海热液口,还得再喂点极端样本。

不过4.4MB的体量,后续OTA升级毫无压力。

一句话总结:水下作业别再扛着笨重工作站了,揣个U盘大小的模型,鱼群、垃圾、裂缝统统现形。

下次潜友再抱怨“拍了个寂寞”,直接把CEH-YOLO甩过去,让他闭嘴惊艳。

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言