Schwertlilien
As a recoder: notes and ideas.

2025-3-1-Mathe-CVPR-2016

Mathe-CVPR-2016

Mathe, Stefan, Aleksis Pirinen, and Cristian Sminchisescu. "Reinforcement learning for visual object detection." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

一种应用最广泛的视觉目标检测策略是基于穷举空间假设搜索。虽然像滑动窗口这样的方法已经成功和有效了很多年,但它们仍然是蛮力的,独立于图像内容和被搜索的视觉类别。在本文中,我们提出了原则性的顺序模型,该模型积累了在一小组图像位置收集的证据,以便有效地检测视觉对象。

通过将顺序搜索制定为搜索策略(包括停止条件)的强化学习,我们的完全可训练模型可以明确地平衡每个类别,特别是探索的冲突目标-采样更多的图像区域以获得更好的准确性-和开发-在充分确信目标位置时有效地停止搜索。该方法具有通用性,适用于任何探测器响应函数。我们在PASCAL VOC 2012目标检测测试集中报告了令人鼓舞的结果,表明所提出的方法比滑动窗口方法实现了近两个数量级的加速。

Intro

检测=一组假设的目标位置上最大化置信度函数。

置信度可以在监督或是弱监督设置中学习。

在滑动窗口公式中,假设集由大量矩形窗口组成,并通过穷举搜索解决最大化问题。由于这个过程在实践中通常过于昂贵,因此已经提出了许多方法来加速它,从利用置信度函数属性的方法到建议方法或级联技术。

相比之下,生物系统的搜索模式可以被描述为“扫视和注视”[17],这表明只有一小部分场景位置被关注,以便在目标位置得到较高的置信度。

暂时不考虑效率(只探索了图像的少数区域)和生物合理性,上面这种方式通过有序地整合证据,以一种有原则的方式,正式推导出能够最佳地平衡效率和准确性的数学模型。挑战在于能够在延迟奖励的情况下运作,这就排除了对每一步的监督

同时,避免需要完全预先指定环境,这对于视觉场景来说是不可能的-考虑到图像和视觉对象类别的复杂性,模型应该得到有效的训练。

扫视和注视=Transformer的注意力机制

“同时,避免需要完全预先指定环境,这对于视觉场景来说是不可能的-考虑到图像和视觉对象类别的复杂性,模型应该得到有效的训练。”我没搞懂在说什么。

At the same time, avoid the need to completely pre-specify the environment, which for visual scenes would be impossible– given the complexity of images and visual object categories, the models should be effectively trained.

通过将顺序搜索定义为类别和图像依赖搜索策略(包括停止条件)的强化学习,在这项工作中,我们开发了完全可训练的方法,可以明确地平衡探索(采样更多图像区域以提高准确性)和开发(在对目标位置有足够信心时有效地停止搜索)的冲突目标。该方法是通用的,适用于任何检测器响应函数,并且可以学习特定于图像和视觉类别的搜索策略和停止条件。在具有挑战性的PASCAL VOC2012目标检测基准测试中,实现了比滑动窗口方法两个数量级的加速。

Related Work:2016年的感觉没必要看了。

Problem Formulation

对于给定的input img,将动作检测表示为最大化置信函数\(f_c:R\rightarrow\mathbb{R}\) \[ r^*=\arg \max_{r\in R}f_c(r) \] \(R\):图像区域集,被定义在粗略的边界框级别,也可以定义在使用建议生成方法(RP)获得的更精细的自由图像区域级别。

因为\(f_c\)的成本高,所以为解决此问题提出了有效搜索策略。

序列模型

基于强化学习的序列检测器:在每个时间步,模型可以根据观测区域的历史\(H_t\)(算法1)终止搜索(\(d_t = 1\)),并产生一个置信度为\(c_t\)的检测假设\(b_t\),这会获得奖励\(A_t^d\)用于衡量检测质量。否则,从未选择区域的集合\(\frac{H_t }{E_t}\)中选择一个证据区域\(e_t\),并用于预测下一个固定位置\(z_t\)。观察到\(z_t\)附近所有区域的集合\(O_t\)(算法2),并收到负奖励\(A_t^f\),反映了提取这些区域特征的计算成本\(r_t\)

image-20250301224942435

用于图像探索的最优序列模型的关键组成部分给定一组图像区域R,以集合\(B =\{1,…,|R|\}\)(以\(|·|\)为集合基数)为\(R\)的下标index。

置信度函数: \[ r^*=\arg \max_{r\in R}f_c(r)\\ f_c(r)=\theta^{T}_c q(r) \] 参数为\(\theta_c\),特征提取器\(q:R→\mathbb{R}^m\)

该模型的目标是通过最少次数评估这两个计算代价高昂的函数来定位目标

在检测序列的每个时间步\(t\) (除了最后一步),我们的模型会基于当前状态\(S_t\)生成固定动作\(A_t^f\)。每个\(A_t^f\)决定一个候选目标位置。此外,模型还得到一组观测\(O_t\):此候选目标位置附近的一组图像区域的观测。我们只对此区域进行置信度检测和特征提取。然后这个观测被用来更新状态\(S_t\),并总结所有过去的观察和行动。

当收集到足够的图像信息时,模型发出一个特殊的done动作,表示它已经确定了检测目标的位置。完成动作与检测目标边界框\(b_t\)和检测置信度\(c_t\)相关联。该模型具有一组可训练参数\(\theta = (\theta_c,\theta_d,\theta_e,\theta_p,\sum_p,\sigma_c)\),分别控制检测器响应置信度、停止准则、图像区域相对于目标位置的信息量、最有可能下一个固定点的图像位置及其方差,以及与模型输出相关的置信度\(c_t\)的方差。

每个固定动作\(A^f_t\)都可以潜在地减少定位检测目标的不确定性,但由于需要将一组观测值\(O_t\)整合到状态中,因此与计算成本相关。我们模型的目标是平衡信息收集(固定操作 \(A^f_t\))与正确定位目标(完成操作 \(A^d_t\))的需求之间的冲突。

模型结构

现在我们开始详细描述我们模型的行为(A)、状态(S)、观察(O)和决策过程。模型组件如上图所示,搜索模式的几个示例如图2所示。

状态:模型的状态表示为一个包含三个元素的元组:观测区域历史\(H_t\),选定证据区域历史\(E_t\)和固定历史\(F_t\)。这个元组\(S_t = (H_t,E_t,F_t)\)总结了自搜索序列开始以来的观测和动作的历史。

\(S_t\) 说明
观测区域历史 \(H_t\) 在每个时间步\(t\),模型跟踪迄今观测到的图像区域的历史\(H_t≤B\)。置信函数\(f_c\)仅对这些区域进行评估,并用于决定何时终止搜索。历史\(H_t\)也被模型用来决定下一步要关注的可能位置,因为\(H_t\)为搜索提供了上下文信息。
选择的证据区域历史 \(E_t\) 模型根据观测历史中的证据区域\(e_t\in H_t\),来决定下一个要固定的位置。证据区域被视为提供指示目标位置的必要上下文。然而,为了鼓励搜索过程中的多样性,每个区域最多只能被用作一次证据。因此,该模型对迄今选取的区域的集合\(E_t\)作追踪,并始终从集合\({H_t} \setminus{E_t}\)中选取证据区域。
固定历史 \(F_t\) 每个时间步长\(t\)的观测区域集合,取决于过去固定位置的历史\(F_t\)

动作:模型中的动作表示为元组。有两种动作,由它们的第一个元素来区分,它可以是两个离散的符号之一:固定或完成。模型的动作空间由所有固定元组和完成元组的并集组成,即\(A = A^f∪A^d\)

  • 固定动作表示为三元素元组\(A^f_t = (Fixate,e_t,z_t)\),其中\(e_t\in B\)表示证据区域的索引,\(z_t\in\mathbb{R}^2\)表示下一次固定的图像坐标。
  • 完成的动作表示为\(A^d_t = (Done,b_t,c_t)\),其中\(b_t\in B\)是表示检测输出的区域的索引,\(c_t\in \mathbb{R}\)表示检测置信度。

观测:在注视动作之后,注视位置\(z_t\)附近的图像区域集合\(O_t\)被观察到。为了定义这个邻域,我们在固定中心\(z_t\)周围使用半径为\(T_R\)的圆形区域。如果一个像素落在与\(z_t\)相关的区域内,我们说它在时间\(t\)是固定的。为了使区域\(r\)在时刻\(t\)被观测到,它从像素级别上看,大部分\(h(r)\)必须在当前或之前的步骤中被固定。 \[ h(r) = \frac{|{x\in r|(∃)z\in F_t, \|z - x\|_2≤T_R}|}{|r|} \\ O_t = {i\in B|h(r_i)≥T_F} \]

其中\(F_t = \{z_1,…,z_t\}\)是模型在时间步长为\(t\)之前固定位置的历史,\(T_F\)是控制观察段中固定像素的最小比例的阈值。

随机策略

模型根据当前状态决定下一步采取的行动。它的随机决策策略\(\pi_{\theta}(S_t,A_t)\)分三个阶段进行,每个阶段都有自己的一组学习参数。模型评估是否终止搜索(终止决策)

  • positive: done
  • negative: fixate

终止决策:基于当前状态\(S_t\),模型可以在任意给定的时间步长决定终止搜索,并产生检测结果(而不是使用特设的终止策略)。

例如: 预设的固定数量 fixations(搜索位置,search locations),模型使用一个学习的决策函数来平衡检测置信度和计算负载。

检测置信度 计算负载
如果模型已经观察到一个区域,该区域被认为包含高置信度的检测目标,它可能会决定提前终止搜索。 检测器的运行成本:迄今为止执行的置信函数评估次数+搜索策略评估的数量
为了捕捉这方面,我们计算了迄今为止观测到的P区域上的最大置信度:\(asmax {f_c (r_i)}\in H_t\) 迄今为止执行的置信函数评估次数: 与当前时间步长t观测区域的\(|Ht|\setminus |R|\)之比成正比
对于任何集合\(X\)和平滑元参数\(\alpha\): \(asmax(X) = \frac{\sum _{x\in X} xe^{\alpha x}}{\sum _{x\in X} e^{\alpha x}}\) 搜索策略评估的数量: 由于策略在每个时间步长评估一次,因此该成本与时间步长t成正比

\[ \begin{align} &\pi_{\theta}(A_t=(done,b_t,c_t)|S_t)=p_{\theta}(d_t=1|S_t)p_{\theta}(b_t|d_t=1,S_t)p_{\theta}(c_t|d_t=1,S_t,b_t)\\ &\pi_{\theta}(A_t=(fixate,e_t,z_t)|S_t)=p_{\theta}(d_t=0|S_t)p_{\theta}(e_t|S_t)p_{\theta}(z_t|S_t,e_t) \end{align} \]

上面公式完全指定了模型策略,这两个公式定义了所有可能动作的概率分布。注意,此策略在特征和参数上是高度(深度)非线性的。随机策略是由高度非线性预测拓扑上的高斯分布给出的。

现在来对上面各部分进行介绍:

Done Action策略

在终止(\(d_t = 1\))时,模型从观测区域的集合\(H_t\)中输出一个边界框\(b_t\),表示检测目标的位置,同时输出置信度分数\(c_t\)。我们使用一个softmax边界框选择准则,平滑度元参数为α。\(\sigma_c\in \mathbb{R}\)是控制置信度预测方差的模型参数。 \[ \begin{align} &\pi_{\theta}(A_t=(done,b_t,c_t)|S_t)=p_{\theta}(d_t=1|S_t)p_{\theta}(b_t|d_t=1,S_t)p_{\theta}(c_t|d_t=1,S_t,b_t)\\ &p_{\theta}(d_t=1|S_t)=\text{sigmoid}\left[\theta^T_d v(S_t)\right]\\ &p_{\theta}(b_t=k|d_t=1,S_t)=\frac{e^{\alpha f_c(r_k)}}{\sum_{i\in H_t}e^{\alpha f_c(r_i)}}\\ &p_{\theta}(c_t|d_t=1,S_t,b_t=k)=N(c_t|f_c(r_k),\sigma_c)\\ &v(S_t)=\begin{pmatrix}\text{asmax}(\{f_c(r_i)\}_{i\in H_t})&t&\frac{|H_t|}{|R|}&1\end{pmatrix}^T\in \mathbb{R}^4 \end{align} \]

Fixate Action策略

如果搜索未终止(\(d_t = 0\)),则模型从观察到的区域集中选择一个新的证据区域\(e_t\in(H_t \setminus e_t)\),它认为该区域对目标位置有信息。我们定义了一个证据函数\(f_e: B→\mathbb R, f_e(i) = \exp \left[\theta_e^T q(r_i)\right]\),用来评估图像区域i相对于目标位置的信息量,其中\(\theta_e\)是学习到的模型参数。

我们从证据函数定义的多项分布中选择区域\(e_t\),这些分布在之前步骤中未选择的图像区域的集合\(H_t\setminusE_t\)上: \[ \begin{align} &\pi_{\theta}(A_t=(fixate,e_t,z_t)|S_t)=p_{\theta}(d_t=0|S_t)p_{\theta}(e_t|S_t)p_{\theta}(z_t|S_t,e_t)\\ &p_{\theta}(e_t|S_t) = \frac{f_e(et)}{\sum_{i\in H_t}f_e(i)}\\ &p_{\theta}(z_t|S_t,e_t)= N(\cdot|f_p(e_t),\Delta(e_t)^T\Sigma_p\Delta(e_t))\\ &f_p(e_t)=\Delta(e_t)\theta_p^Tq(e_t)+\mu(e_t)\\ &\Delta(e_t)=\text{diag}\left(\frac{x_1(e_t)-x_2(e_t)}{2}\right)\\ &\mu(e_t)=\frac{x_1(e_t)+x_2(e_t)}{2} \end{align} \] 其中\(\Sigma_p\)是一个习得的协方差矩阵,控制注视的传播,高斯中心\(f_p(e_t)\)基于证据区域特征\(q(r_{e_t})\)与习得参数\(\theta_p\)

推理与学习

推理:通过对策略\(\pi_{\theta}(A_t|S_t)\)的重复采样来进行推理,直到得到一个done动作(算法1:策略采样算法)。根据动作\(A_t\) (Algorithm2)更新每一步的状态\(S_t\)。当搜索完成后,生成区域和置信度并返回到检测器输出。

学习:给出一组图像,表示为区域集\(B_j\),以及旨在获得在目标位置最大置信度函数。为了符号的简单性,在不损失一般性的情况下,我们将考虑包含\(n\)(可能为0)个检测目标和相应的实际真实区域\(\{g_i\}^n_{i=1}\)的图片。我们希望找到模型参数\(\theta=(\theta_c,\theta_d,\theta_e,\theta_p,\Sigma_p,\sigma_c)\),基于上一步(\(d_t=1\))的检测目标区域\(b_t\)和置信度\(c_t\),最大化目标检测的准确度,以及最小化候选区域评估的数量。

Policy sampling algorithm(策略采样算法)

image-20250302111017235
  1. 输入: 该算法的输入是状态 \(S_t = (H_t, E_t, F_t)\),这里 \(H_t\)\(E_t\)\(F_t\) 可能代表不同的状态组成部分,比如历史信息、环境相关信息等。
  2. 核心步骤
    1. 首先根据公式(4)和(5)从概率分布 \(p(d_t|S_t)\) 中采样得到 \(d_t\)
    2. 如果 \(d_t = 1\) ,则进一步分别根据公式(6)从 \(p(b_t|S_t, d_t)\) 采样 \(b_t\) ,根据公式(7)从 \(p(c_t|S_t, d_t, b_t)\) 采样 \(c_t\) ,最后返回动作 \(A_t = (done, b_t, c_t)\) ,这里 “done” 可能是表示一个终止状态相关的标识 。
    3. 如果 \(d_t \neq 1\) ,则根据公式(9)从 \(p(e_t|S_t, d_t)\) 采样 \(e_t\) ,再根据公式(12)从 \(p(z_t|S_t, d_t, e_t)\) 采样 \(z_t\) ,最后返回动作 \(A_t = (fixate, e_t, z_t)\)
  3. 作用:这个算法主要是根据当前状态 \(S_t\) ,通过一系列的概率采样来确定要执行的动作 \(A_t\) ,不同的条件分支会产生不同形式的动作。

State transition algorithm(状态转移算法)

image-20250302111032378
  1. 输入: 输入当前状态 \(S_t = (H_t, E_t, F_t)\) 和动作 \(A_t = (fixate, e_t, z_t)\)
  2. 核心步骤
  3. 第一步根据公式确定 \(O_t\) ,其中 \(B\) 可能是一个集合,\(h(r_i)\) 是某种函数计算, \(T_F\) 是一个阈值 。
  4. 然后更新 \(H_{t + 1}\)\(H_t\)\(O_t\) 的并集;更新 \(E_{t + 1}\)\(E_t\)\(e_t\) 的并集;更新 \(F_{t + 1}\)\(F_t\)\(z_t\) 的并集 。
  5. 最后返回更新后的状态 \(S_{t + 1} = (H_{t + 1}, E_{t + 1}, F_{t + 1})\)
  6. 作用:该算法描述了在给定当前状态和执行的动作后,如何更新状态到下一个时刻的状态,即定义了状态转移的规则。

奖励函数

为了捕捉这种权衡,并避免明确地指导模型如何实现它,我们将训练目标作为延迟奖励,作为典型的强化学习设置。我们的奖励函数对检测位置和最终状态的置信度很敏感,并且会对每个区域的评估产生惩罚。 \[ r_t(S_t, A_t; \{g_i\}_{i = 1}^n)= \begin{cases} -\beta \cdot |O_t \setminus H_t| & \text{if } d_t = 0 \\ \text{sigmoid}(c_t) \cdot [\max_{i = 1, n} \text{iou}(g_i, r_{b_t})] & \text{if } d_t = 1 \land n > 0 \\ -\text{sigmoid}(c_t) & \text{if } d_t = 1 \land n = 0 \end{cases} \] 其中 \(\text{iou}(\cdot, \cdot)\) 是区域上的交并比函数,\(\beta\) 是模型为每次置信度函数评估支付的惩罚系数 。

奖励函数 \(r_t(S_t, A_t; \{g_i\}_{i = 1}^n)\) 的定义

  1. 输入包括当前状态 \(S_t\) 、动作 \(A_t\) 以及一组目标区域 \(\{g_i\}_{i = 1}^n\)
  2. \(d_t = 0\) 时,奖励为 \(-\beta \cdot |O_t \setminus H_t|\) 。这里 \(\beta\) 是一个惩罚系数,\(|O_t \setminus H_t|\) 表示新观察到的区域集合 \(O_t\) 与之前区域集合 \(H_t\) 的差集的大小,这意味着每进行一次置信度函数评估,模型会受到一定的惩罚,该惩罚与新观察区域的计算成本相关。
  3. \(d_t = 1\)\(n > 0\) 时,奖励为 \(\text{sigmoid}(c_t) \cdot [\max_{i = 1, n} \text{iou}(g_i, r_{b_t})]\) 。其中 \(\text{sigmoid}(c_t)\) 是对 \(c_t\) 应用 sigmoid 函数,\(\text{iou}(g_i, r_{b_t})\) 是区域 \(g_i\)\(r_{b_t}\) 的交并比(Intersection over Union),该分支表示在目标存在(\(n > 0\))且执行 “done” 动作(\(d_t = 1\))时,模型的奖励与它的置信度和真实区域的重叠程度成正比。
  4. \(d_t = 1\)\(n = 0\) 时,奖励为 \(-\text{sigmoid}(c_t)\) ,此时忽略位置信息,模型的置信度越小,奖励越高。

在训练期间,通过最大化训练集上的期望奖励函数来优化模型。 \[ F(\theta)=\mathbb{E}_{p_\theta(s)}\left[\sum^{|s|}_{t=1}r_t\right]-\frac \lambda 2 \theta^T\theta \] \(\mathbb{E}_{p_{\theta}(s)}\) 表示基于参数 \(\theta\) 的策略 \(p_{\theta}(s)\) 的期望。\(s = ((S_0, A_0),\ldots,(S_k, A_k),\ldots)\) 代表一个可变长度的状态序列,从初始状态 \(S_0 = (H_0, E_0, F_0)\) 开始,通过运行前面提到的算法1和算法2采样得到。\(\sum_{t = 1}^{|s|} r_t\) 是状态序列中每一步 \(t\) 的奖励 \(r_t\) 的总和。\(-\frac{\lambda}{2} \theta^{\top} \theta\) 是L2正则化项,\(\lambda\) 是正则化系数,用于防止模型过拟合。初始状态中的 \(H_0\) 设为通过固定图像中心观察到的片段集合,\(E_0\)\(F_0\) 都设为空集 \(\emptyset\)

对于一张图像,期望奖励的梯度 \(\nabla_{\theta}F(\theta)\) 可以近似为: \[ \nabla_{\theta}F(\theta)=\frac{1}{M}\sum_{i = 1}^{M}\sum_{t = 1}^{|s^i|}\nabla_{\theta}\log\pi_{\theta}(A_t^i|S_t^i)\left[\sum_{t = 1}^{|s^i|} r_t^i\right]+\lambda\theta \] 其中 \(M\) 是采样序列的总数,\(s^i = ((S_0^i, A_0^i),\ldots,(S_k^i, A_k^i),\ldots)\) 是第 \(i\) 个采样得到的状态 - 动作序列(State-Action),\(r_t^i\) 是该序列中第 \(t\) 步的奖励。\(\nabla_{\theta}\log\pi_{\theta}(A_t^i|S_t^i)\) 与基于当前状态 \(S_t^i\) 采取动作 \(A_t^i\) 的策略的对数梯度有关。

模型训练过程: 训练这个序列模型需要计算期望奖励及其梯度(参考上式)。对于每张图像,要模拟模型直到搜索终止,也就是在状态 - 动作空间中生成序列。

动作采样过程: 在每个时间步 \(t\) ,根据算法1从策略中采样一个动作 \(A_t\)

  • 具体来说,首先从分布 \(p_{\theta}(d_t|S_t)\) 中采样来决定搜索是否终止(如果 \(d_t = 1\) ,表示 “done” 动作)。
  • 如果终止,就分别从 \(p_{\theta}(b_t|d_t = 1, S_t)\)\(p_{\theta}(c_t|d_t = 1, S_t)\) 中采样输出区域索引 \(b_t\) 和置信度 \(c_t\)
  • 如果不终止(\(d_t = 0\) ),则从 \(p_{\theta}(e_t|d_t = 0, S_t)\) 中采样证据区域 \(e_t\) ,再从 \(p_{\theta}(z_t|d_t = 0, e_t, S_t)\) 中采样下一个注视位置 \(z_t\)

模型状态更新: 最后,按照算法2更新模型的状态。通过多次采样序列,用于估计期望,进而训练模型。

image-20250302161410823

Expr

在这部分,作者通过实验验证他们提出的搜索方法在具有挑战性的Pascal VOC 2012目标检测基准上的效果。使用的区域空间由特定算法提取的所有片段组成,为保证通用性和一致性,选择CPMC算法的片段,因其与检测目标的映射准确度较高。

实验流程

  1. 对比模型及方法:为量化不同标准检测模型的性能,分别使用滑动窗口搜索(SW)、对CPMC区域提议集进行穷举搜索(RP),以及作者提出的基于序列强化学习的搜索模型(RL) 。
  2. 提议生成:运行公开实现的算法获取RP假设;对于SW基线,通过迭代不同尺寸和纵横比的窗口来生成假设。
  3. 特征提取:特征提取器采用Krizhevsky等人的深度神经网络。对每个区域提议,获取其内容特征,并结合边界框尺寸和纵横比,得到8204维的最终特征向量。作者为简化模型,使用通用特征提取器训练线性SVM模型,而非进一步优化深度神经网络。
  4. 训练序列强化学习检测器:在Pascal VOC 2012训练集上找到使期望奖励最大化的最优参数向量θ 。因参数数量多易过拟合,先使用线性SVM预训练初始化参数。
  5. 初始化与参数设置:通过对图像区域到真实边界框中心的回归初始化参数;对其他参数进行均匀随机采样并优化。在Pascal VOC验证集上验证观察模型参数,实际中这些参数的敏感度不高。

计算效率和准确性

作者提出的序列检测器准确性接近滑动窗口基线,但速度快70多倍,还考虑了RP算法的开销。此外,将该方法与其他高效搜索方法对比时,虽然代码不可用,但可从特征表示差异等方面进行综合考量。

定性分析

搜索序列长度与图像中目标位置相关。若目标靠近图像中心,模型可能在首次注视后就终止搜索;若目标在周边,则会继续搜索。

证据区域(如图2中绿色部分)可从三个方面引导搜索:

  1. 提供目标位置线索;
  2. 包含目标从而让模型定位;
  3. 在目标过大时,通过子部分引导搜索,直到目标完全包含在观察集中 。
image-20250302164543367

模型生成的固定位置\(z_t\)(橙色圆圈)序列,以及相应的证据区域\(e_t\)(绿色框),以及最终检测到的边界框\(b_t\)(黄色)。如果通过第一个中心固定(第二行第一个图像)找到目标,则模型可以提前终止搜索。当目标尚未被发现时,通常会利用不包含目标的区域来引导搜索到新的有希望的位置(例如,街道提供了寻找公共汽车的上下文)。当一个小目标位于一个更宽的区域(例如树上的鸟)时,该模型使用更宽的区域作为上下文线索,以一种从粗到细的方式找到目标。

类似地,涉及多个探索性固定点的精细到粗搜索策略用于提供观察大型目标(例如飞机)所需的中央凹覆盖。定量结果见表:

image-20250302164637503

原文

搜索
匹配结果数:
未搜索到匹配的文章。