002.计算机视觉与目标检测发展简史:从传统方法到深度学习

张开发
2026/4/6 22:32:45 15 分钟阅读

分享文章

002.计算机视觉与目标检测发展简史:从传统方法到深度学习
上周调一个老项目客户要求在不升级硬件的前提下提升夜间车辆检测的准确率。打开代码一看好家伙全是手工设计的HOG特征SVM分类器夜间噪点多的时候误检率直接飙到40%以上。我盯着那些精心调参的边缘梯度直方图代码突然有点恍惚——五年前这还是工业界的主流方案如今却像出土文物。这让我想起该写写这段历史了不是教科书那种平铺直叙而是咱们一线工程师真正踩过的坑、转过的弯。一、传统方法时代手工设计特征的“手艺活”2005年我刚入行时目标检测就是“特征工程分类器”的二人转。Viola-Jones人脸检测框架是很多人的启蒙它用Haar特征描述局部灰度变化配合AdaBoost级联分类器在当时的PC上能跑到实时。但真正统治了快十年的是Dalal在2005年提出的HOG方向梯度直方图SVM组合。写HOG代码就像在绣花先计算图像梯度把细胞单元里的梯度方向归到9个bin里再对块做归一化减少光照影响……我至今记得调参时的痛苦细胞大小设8×8还是16×16块滑动步长选几个像素这些参数严重依赖人工经验换个场景就得重调一遍。更麻烦的是特征设计。SIFT、SURF这些局部特征算子要手工设计尺度不变性、旋转不变性都得一点点抠。当年实验室的师兄为了发论文能花三个月设计一个新特征描述符性能提升2%就算重大突破。现在回头看那是个“手艺活”时代——算法精度取决于工程师对图像理解的深度和调参的耐心。二、瓶颈期我们遇到了天花板到2010年左右传统方法明显撞墙了。PASCAL VOC数据集上最好的HOGSVM模型mAP平均精度卡在40%左右上不去。问题出在哪儿第一特征表达能力有限。手工设计的特征就像固定模板只能捕捉预设的模式。现实中的目标千变万化遮挡、形变、光照变化、背景干扰……HOG对边缘敏感但遇到模糊目标就抓瞎。我调试那个夜间车辆检测项目时车灯反光在HOG眼里就像一堆乱码边缘。第二流程是割裂的。传统检测分三步走区域选择滑动窗口穷举、特征提取、分类判断。滑动窗口计算量大得吓人为了实时只能牺牲分辨率或步长。更致命的是每个模块独立优化误差层层累积。你调好了SVM分类阈值滑动窗口步长一变整体性能又跌了。那时候我们开始用一些“土办法”针对夜间场景在HOG前加光照补偿针对小目标设计多尺度金字塔融合。代码越写越复杂效果提升却越来越小。团队里有人开始嘀咕“这路子是不是走到头了”三、深度学习的破局从R-CNN到YOLO的范式革命2012年AlexNet在ImageNet上碾压传统方法大家都意识到要变天了。但目标检测的转折点要等到2014年RBGRoss Girshick的R-CNN横空出世。第一次读R-CNN论文时我有点懵它用Selective Search代替滑动窗口生成候选区域用CNN代替手工特征把分类和边界框回归一起端到端训练。mAP在VOC2007上直接从33.7%干到58.5%但兴奋没多久实际部署就发现坑了每张图要提2000个候选区域每个区域单独过CNN检测一张图要50秒。这哪是检测简直是幻灯片播放。Fast R-CNN和Faster R-CNN的改进很工程师思维共享卷积计算、用ROI Pooling统一特征、引入RPN网络让候选框生成也可学习。Faster R-CNN已经能做到每秒5帧但离实时还有距离。我当时在安防项目里用它GPU服务器上跑得欢一到边缘设备就卡成PPT。然后YOLO来了。2016年看到Joseph Redmon那篇论文标题《You Only Look Once》时我还觉得这名字太狂。但读完就服了把检测帧成单次回归问题网格划分边界框预测类别判断一气呵成简单粗暴却有效。第一版YOLO虽然定位粗糙但速度达到45帧/秒真正意义上实现了实时。YOLO的哲学很对工程师胃口宁可牺牲一点精度也要保证速度可用。它打破了“候选区域精细分类”的思维定式告诉我们检测可以直接从像素到结果。后来SSD、RetinaNet等单阶段检测器都是这个思路的延续。四、那些年我们踩过的坑回头看这段技术演进有些经验是代码里摔出来的1. 传统方法不是一无是处去年有个嵌入式项目CPU只有ARM A7内存128MB我最后反而选了HOGSVM。为什么模型小几MB、无需GPU、对静态场景足够稳定。深度学习不是银弹资源受限时老方法反而靠谱。但一定得加预处理噪声抑制、对比度增强手工特征太“脆”了。2. 数据质量比算法重要早期我们迷信算法改进后来发现同样YOLOv3用清洗过的数据比乱标的数据mAP高20%。传统方法对数据噪声更敏感HOG特征遇到标注框偏移几个像素性能就骤降。所以2013年我们团队一半人力在标数据、清数据这活枯燥但值。3. 工程部署的鸿沟学术界的mAP竞赛和工业落地是两回事。Faster R-CNN论文里说5帧/秒那是Titan X显卡上的数字。到Jetson TX2上光模型加载就占1.5秒。后来我们做了大量优化模型剪枝、量化、算子融合……这些脏活累活论文里不提却是项目成败的关键。4. 理解你的传感器做夜间车辆检测那个项目最后解决方案不是换算法而是调整摄像头参数。把曝光时间从自动改成固定中值HOG的误检率直接降了15%。传统方法对成像质量依赖极高现在深度学习鲁棒性强些但传感器特性依然是天花板。五、给年轻工程师的几句实在话如果你刚进入这个领域我的建议是别急着追新论文。先把HOGSVM、Faster R-CNN、YOLOv3这三个经典实现手敲一遍别直接clone GitHub。敲代码时你会看到设计思路的演变从手工先验到数据驱动从多阶段到端到端。理解为什么比记住是什么重要。传统方法至少要懂一种。现在面试都问Transformer、DETR但当你遇到资源极端受限的场景比如单片机跑检测HOG这种轻量级方法能救命。它就像螺丝刀电动扳手再好用有些角落还得靠手动。重视数据工程。我见过太多团队把90%精力花在调模型上数据随便标标。实际上清洗数据、设计增强策略、分析bad case这些才是提升精度的捷径。特别是传统方法数据干净与否直接决定生死。保持怀疑精神。新论文的指标看看就好自己复现一遍才知道真实效果。当年某篇知名论文说在COCO上涨了5个点我们复现时发现它用了特殊的训练技巧常规训练根本达不到。学术界和工业界的评价标准不一样。技术演进就像河流改道老河道不会完全消失但主流已经奔涌向前。现在再看当年调HOG参数的那些深夜觉得既遥远又亲切。那些手工特征像老工匠的工具箱虽然大多数时候躺在角落但偶尔遇到特殊问题打开它还能找到趁手的家伙什儿。下次遇到老系统改造不妨先看看它的历史代码。那里埋着技术演进的化石也藏着解决问题的另一种可能性。

更多文章