介绍两篇论文

Slender Object Detection: Diagnoses and Improvements-CVPR2020

https://github.com/wanzysky/SlenderObjDet/tree/master
https://arxiv.org/abs/2011.08529
https://ar5iv.labs.arxiv.org/html/2011.08529

slender object的三种情况

  1. 物体本身的细长
  2. 由于遮挡导致
  3. 不同角度看到

数据集使用

COCO+Objects365组成COCO+数据集,其中objects365主要是为了中和COCO数据集中slender数据的较少问题,COCO+中slender数据是COCO的8倍。

实验结果

image-1723793108468
验证的实验结果,使用的指标是MAR
image-1723793368268
采样率的差异性

模型解剖阶段

有锚点和无锚点

边界框和点集

image-1723827026745

Improving Slender Object Detection(重点)

RetinaNet演变情况:
  • A: 将对象框内的位置赋值为正。
  • B: 回归边界框而不是anchors。
  • C: 使用IoU损失作为定位目标。
  • D: 采用中心点分数重新计算损失权重,并且在不同位置评分。
  • RetinaNet的reppoint形式:
  • E: 将距离框中心最近的位置分配为正的标签分配。
  • F: 2-point表示代替基于锚点的表示。
  • G: 9-point表示法和相应的伪盒形。
  • H: 将初始定位结果与DCNs相结合的监督特征自适应。
  • 监督特征自适应:
  • I: 除了RepPoints提供的最终结果之外,还有一个初始定位。
  • J: 利用初始目标定位约束DCN的偏移量。
  • K: 偏移量自适应地从特征中学习。
  • L 根据初始定位推断出的残差方式最终定位。
  • image-1723885557770
    image-1723883311115

    自适应特征

    image-1723877591489
    image-1723883490701

    中心点

    image-1723882801554

    centerness=(min(l,r)max(l,r)min(t,b)max(t,b))12centerness=(\frac{min(l,r)}{max(l,r) } \cdot \frac{min(t,b)}{max(t,b)})^{\frac{1}{2}}
    其中l,r,t,b分别是边界框左右上下边界。
    在几何均值下,细长物体的长边衰减较慢,短边衰减较快,导致定位细长物体的训练不足。自然地,将公式扩展到 以下内容:
    centerness=(min(l,r)max(l,r)min(t,b)max(t,b))scenterness=(\frac{min(l,r)}{max(l,r) } \cdot \frac{min(t,b)}{max(t,b)})^{s}
    s是物体的slenderness。

    2-point and 9-point

    2-point表示物体的简单表示方式,通常指物体的对角线顶点。对于标准的边界框(bounding box),可以用左上角和右下角两个顶点来定义一个矩形。这种表示方式在检测常规物体时非常普遍,因为它简单且计算效率高。

    9-point表示更加细化的物体表示方式,通常在纤细物体检测中使用。这种方法不仅考虑边界框的四个顶点,还引入了中点的概念。例如,一个矩形边界框可以由9个点来描述:四个顶点、四个边的中点,以及中心点。这种细化表示可以帮助更准确地描述和定位形状不规则或纤细的物体,因为它能捕捉到更多的形状信息。

    code demo

    DFAM-DETR: Deformable feature based attention mechanism DETR on slender object detection-CVPR2022

    暂时没有github。
    image-1723791660117
    image-1723791585060

    Q.E.D.


    曲中思念今犹在,不见当年梦中人。