学院新闻

您的当前位置: 首页  >  学院新闻  >  正文

学院林业智能装备创新团队陈海飞副教授在农林科学领域国际权威期刊《Computers and Electronics in Agriculture》发表重要研究论文

发布人: 发布日期:2026-03-11

近日,学院智能装备创新团队陈海飞副教授在农林科学领域旗舰期刊《Computers and Electronics in Agriculture》(中科院一区TOP,IF=8.9)发表油茶果采摘相关研究论文,题为“Robot visual servo based on lightweight YOLO11-SMMA for Camellia oleifera fruits harvesting”。论文将深度学习目标检测与立体视觉定位技术相结合,构建了油茶果目标识别与三维定位模型,并实现机械臂自动采摘控制。研究有效缓解了移动端计算资源受限条件下油茶果检测精度不足、空间定位不稳定及采摘自动化程度低等问题,为油茶果智能采摘装备研发提供了新的技术路径与理论依据。团队硕士生吴尚尚为第一作者,陈海飞副教授为通讯作者,中南林业科技大学为唯一完成单位。本研究由国家自然科学基金(62303493)、芙蓉计划青年人才项目(2025RC3177)、国家重点研发计划(2022YFD2202103)以及湖南省自然科学基金项目(2024JJ6720)共同资助。

针对复杂果园环境下油茶果采摘中视觉感知与机械臂执行精度耦合及传统检测模型计算开销大、稳定性不足的问题,基于轻量化目标检测框架提出 YOLO11-SMMA 油茶果检测模型,并结合 RGB-D 深度相机获取目标深度信息,实现油茶果三维定位与机器人视觉伺服控制。

研究构建了基于深度学习的油茶果目标检测模型,并结合立体视觉与坐标变换方法实现采摘点三维定位,建立了相机坐标系到机器人基坐标系的映射关系,开发了视觉识别与机械臂协同控制系统,实现油茶果自动采摘。实验结果表明:优化模型在提升 mAP 约 0.6% 的同时,使参数量和计算复杂度分别降低 36.4% 和 37.5%;三维定位系统具有良好的精度与稳定性;所构建的系统实现了目标检测、空间定位与机械臂采摘动作的实时联动,验证了方法的可行性。

论文融合深度学习目标检测与立体视觉定位技术,构建了油茶果识别与三维定位模型,并实现机械臂自动采摘控制。研究提升了复杂环境下油茶果检测与定位的稳定性,为油茶果智能采摘装备研发提供了技术路径与理论依据。

论文全文链接:

https://www.sciencedirect.com/science/article/pii/S0168169926000049

论文引用格式:Wu S, Chen H, Zhang Y, Liao K, Li L.Robot visual servo based on lightweight YOLO11-SMMA for Camellia oleifera fruits harvesting. Computers and Electronics in Agriculture. 2026, 243: 111409

(图文/廖凯  一审/陈中琪  二审/徐钰婷  三审/李红军)