参赛作品讲解
该模板适用于高校学生制作创新创业大赛作品讲解视频
视频脚本
各位老师好!我们是中国农业大学参赛团队,项目名称是牧眸知行——基于姿态估计的奶牛行为识别与健康预警系统。下面我从项目背景、项目简介、技术创新、研究内容、研究成果和团队分工六个方面进行汇报。
当前中大型牧场人工巡检难以实现全天候、全个体监测,跛行、采食异常等早期健康信号很难及时发现。同时,复杂光照、遮挡以及高成本设备又严重限制了智能化方案的推广。因此,牧场急需一种非接触、低成本、可持续部署的智能监测方案。
针对这一痛点,我们构建了“感知—识别—预警—联动”全链条智能养殖闭环。系统通过视频实时获取奶牛骨架姿态信息,利用行为识别模型完成六类行为分析,并将异常结果推送到管理平台,实现健康预警与牧场管理联动,真正做到从源头守护奶牛健康。
我们选择姿态估计作为核心技术路线,因为骨架序列能极大削弱背景、光照和纹理干扰,在遮挡环境下更稳健;同时能清晰表征步态节律和关节点运动差异,更适合区分跛行这类细粒度行为;此外骨架数据紧凑规范,便于后续模型集成和实际部署。
整个项目流程分为数据集构建、姿态估计、行为识别和系统落地四大部分。姿态估计模块提取16个关键点,行为识别模块完成站立、行走、躺卧、采食、饮水、跛行六类行为识别,最终接入管理系统,形成完整应用闭环。
创新一:专用数据集构建 第一个创新点,我们构建了面向奶牛骨架行为识别与姿态估计的专用数据集。覆盖真实牧场多光照、多角度、多遮挡场景,包含1200张关键帧姿态估计数据集和1100段标准化行为视频数据集,为模型在复杂环境下的鲁棒性提供了坚实数据基础。
第二个创新点,我们提出YOLOv11-AS4D姿态估计算法。首先引入Adaptive SimAM自适应注意力机制,通过可学习尺度因子、多尺度能量建模和分层部署,显著提升了蹄尖、耳尖等微小关键点在遮挡、逆光下的检测稳定性。
非对称四尺度检测架构 同时,我们设计了非对称四尺度检测架构,引入P2高分辨率特征,并采用通道压缩、单向融合等轻量化策略,在参数量降低0.956MB的前提下,有效缓解了下采样导致的末端关键点特征丢失,极大提升了微小关键点的定位精度。
第三个创新点,在行为识别部分我们提出SAP-GCN实时识别框架。通过语义超边机制,在头部与前肢、尾部与后蹄等无直接物理连接的部位之间建立关联,实现全局动作特征聚合,使模型能更准确捕捉动作演变过程,实时输出稳定分类结果。
MAR-GCN 在此基础上,我们进一步提出MAR-GCN高精度识别框架,专门解决跛行与正常行走等相似行为区分困难的问题。通过TAC多重注意力级联模块和HMT-GC混合多尺度时间图卷积,从时间、空间、通道三个维度增强特征表征,大幅提升了对细粒度步态差异的识别能力。
其中,HMT-GC模块是MAR-GCN的核心创新,它通过并联不同卷积核与池化分支,同时建模短程局部动态和中长程时序依赖,相比传统单一时间尺度建模,能更精准刻画复杂行为变化,尤其显著提高了跛行识别效果。
在研究内容部分,我们团队实地前往牧场,使用两台无反相机采集480段原始视频,覆盖六类行为和复杂场景。
经标准化处理形成1100段行为样本,从中抽取1200张关键帧完成16个关键点精细标注,并生成四类骨架特征序列,为后续模型训练提供数据支撑。
姿态估计消融与对比实验显示:
我们的YOLOv11-AS4D在mAP@0.5:0.95达到0.844,较基线提升1.163%;mAP@0.5达到0.981,参数量仅2.27M,在精度与轻量化上取得最佳平衡,验证了两个创新模块的互补有效性。
行为识别方面: SAP-GCN在关节点和骨骼数据上分别达到92.27%和92.73%;
较ST-GCN基线提升9.85%;
步态F1达到75.35%,较CTR-GCN提升19.71%。
其中跛行精度从基线约20%提升至约70%,饮水从70%提升至100%,充分验证了我们渐进式改进路线的有效性。
系统已实现完整操作闭环
包括登录、姿态估计、行为识别、预警推送等模块
用户上传图片或视频后,系统可一键完成关键点提取与行为分类,
并进行可视化展示,具备良好的交互性和实用性。
目前项目已形成3个核心模型、2类专用数据集和1套完整系统原型,成功申请2项软件著作权,并具备专利转化和牧场试点推广的基础。
团队在李振波教授、陈瑛副教授指导下,六名同学分工明确:我负责总体方案设计与统筹,徐凡雅负责姿态估计,华菲凡负责行为识别,陈柏艳负责后端,董玥涵负责测试与材料,王露欣负责前端,形成了从算法到产品的完整链条。
总结来看,本项目面向真实牧场需求,构建了从姿态感知到健康预警的完整解决方案。未来我们将继续推进多牧场试点,进一步提升模型泛化能力和系统落地能力,为智慧畜牧贡献力量。
我的汇报完毕,恳请各位老师批评指正,谢谢大家!
展开

用户_l9GDxKJ)












