面向多作物、多场景的作物分割基础模型发布
近日,慧诺瑞德公司旗下宏表型实验室联合中国科学院遗传与发育生物学研究所、华中科技大学、西北农林科技大学、武汉工程大学等科研单位,在国际期刊《IEEE Journal of Selected Topics in Signal Processing》上正式发表了DepthCropSeg++模型。该模型是面向多作物、多场景的作物分割基础模型,标志着农业AI在植物表型分析领域实现从“专用模型”到“通用基础设施”的关键跨越。
在智慧育种与精准栽培中,作物图像分割是获取株高、叶面积、冠层覆盖度等植物表型性状的首要步骤。传统方法依赖大量人工标注,成本高、耗时长,且难以适应不同作物与复杂田间环境。DepthCropSeg++应用单目深度估计模型,仅用少量人工即构建了覆盖30多种作物、15类复杂场景,包含2.8万张图像的大规模伪标注数据集,分割效果几乎媲美全人工标注,场景适应性极强的同时还显著降低了标注成本。
该模型采用ViT-Adapter主干网络与动态上采样算子FADE,在叶片边缘、茎秆细节等易模糊区域表现出优越的分割精度。通过两阶段自训练策略,模型在无需人工干预的自我迭代中不断优化,最终在包含夜间、密植、反光等挑战性场景的综合测试集上,平均交并比(mIoU,即作物分割任务中AI模型所圈出的作物区域,与真实作物区域的平均重合比例。该数值越高,说明AI预测越准确)达到93.11%,远超当前通用视觉大模型(如SAM的32.8%)。面对夜间水稻等最具挑战性的场景,模型的平均交并比仍能达到86.90%,在高密度冠层下仍维持99.86%,对训练阶段从未见过的大豆也能稳定输出90.09%的精度。
DepthCropSeg++的发布,意味着作物分割正从“高成本、强依赖人工”的传统范式,转向“低门槛、高鲁棒、可复用”的AI驱动新范式。未来,该技术有望广泛应用于智慧农场、育种加速、生长监测等场景,助力我国农业数字化与智能化转型。
该研究获得上海市关键技术研发计划、国家重点研发计划、国家自然科学基金等多项科研项目支持。