基于kalman的单目标追踪,以及demo测试(Python and C++)

一.卡尔曼滤波简单介绍

        我们可以在任何含有不确定信息的动态系统中的使用卡尔曼滤波,对系统的下一步动作做出有根据的猜测。猜测的依据是预测值和观测值,首先我们认为预测值和观测值都符合高斯分布且包含误差,然后我们预设预测值的误差Q和观测值的误差R,然后计算得到卡尔曼增益,最后利用卡尔曼增益来综合预测值和观测值的结果,得到我们要的最优估计。通俗的说卡尔曼滤波就是将算出来的预测值和观测值综合考虑的过程。

二.主要公式

        卡尔曼滤波器的推导过程比较复杂,这里不展开,这篇文章讲推导过程很好,下面5个公式是卡尔曼滤波器的核心,掌握了这5个公式,就基本掌握了卡尔曼滤波器的大致原理,下面只给出卡尔曼增益的推导过程。

        首先给定一个系统,可以写出他的状态方程和观测方程,即为

  • 状态方程:x_{k} =Ax_{k-1}+B u_{k-1}+w_{k-1}
  • 观测方程:z_{k} =Hx_{k}+v_{k}

几个名词解释:

预测值:根据上一次最优估计而计算出来的值。

观测值:很好理解,就是观测到的值,比如观测到的物体的位置、速度。

最优估计:又叫后验状态估计值,滤波器的最终输出,也作为下一次迭代的输入。

卡尔曼滤波器最核心的5个公式:

  • 预测

1.状态预测公式 ,作用是根据上一轮的最优估计,计算本轮的预测值 

\hat{x}_{k}^{-} =A\hat{x} _{k-1} +Bu _{k-1}

其中A称为状态转移矩阵,表示我们如何从上一状态推测出当前状态;B表示控制矩阵,表示控制量u对当前状态的影响;u表示控制量,比如加速度;x头上之所以加一个^表示它是一个估计值,而不是真实值,而-上标表示这并非最佳估计。 

2.噪声协方差公式表示不确定性在各个时刻之间的传递关系,作用是计算本轮预测值的系统噪声协方差矩阵。

P_{k}^{-} =AP _{k-1}A^{T} +Q

 A表示状态转移矩阵,P为系统噪声协方差矩阵(即每次的预测值和上一次最优估计误差的协方差矩阵,初始化时设置为E),Q为表示误差的矩阵

  • 更新

3.计算K卡尔曼系数,又叫卡尔曼增益。

K_{k} =P_{k}^{-}H^{T} (HP_{k}^{-}H^{T}+R)^{-1}

H表示观测矩阵,R表示观测噪声的协方差矩阵

卡尔曼系数的作用主要有两个方面:

    第一是权衡预测状态协方差矩阵P和观察量协方差矩阵R的大小,来决定我们是相信预测模型多一点还是观察模型多一点。如果相信预测模型多一点,这个残差的权重就会小一点,如果相信观察模型多一点,权重就会大一点。

    第二就是把残差的表现形式从观察域转换到状态域,在我们这个例子中,观察值z表示的是小车的位置,只是一个一维向量,而状态向量是一个二维向量,它们所使用的单位和描述的特征都是不同的。而卡尔曼系数就是要实现这样将一维的观测向量转换为二维的状态向量的残差,在本例中我们只观测了小车的位置,而在K中已经包含了协方差矩阵P的信息,所以就利用了位置和速度这两个维度的相关性,从位置的信息中推测出了速度的信息,从而让我们可以对状态量x的两个维度同时进行修正。

4.最优估计公式,作用是利用观测值和预测值的残差对当前预测值进行调整,用的就是加权求和的方式。

\hat{x} _{k}=\hat{x} _{k}^{-}+K_{k}(Z_{k}-H\hat{x} _{k}^{-})

z是观测值,K是卡尔曼系数。 

5.更新过程噪声协方差矩阵,下一次迭代中2式使用。 

P _{k}=(I-K_{k}H)\hat{x} _{k}^{-}+P_{k}^{-}

三.基于python的单个行人demo

        在正常的跟踪任务里, 我们使用iou匹配   里面用到了上一帧的检测框来对下一帧进行iou计算来匹配(取最大值),但是呢,iou匹配一旦找不到最大值就会失去匹配目标,也就是会出现因为遮挡产生的lost(漏检),所以引入卡尔曼滤波之后可以让上一帧的检测框具有运动属性(例如,框的dx,dy),从而使得最终的框不再和之前一样来自于上一帧,而是根据运动属性预测下一帧,保持和当前检测框处于同一时间,从而解决iou匹配的问题。

代码

        基于此,有了如下的代码

import os
import cv2
import numpy as np
from utils import plot_one_box, cal_iou, xyxy_to_xywh, xywh_to_xyxy, updata_trace_list, draw_trace# 单目标跟踪
# 检测器获得检测框,全程只赋予1个ID,有两个相同的东西进来时,不会丢失唯一跟踪目标
# 检测器的检测框为测量值
# 目标的状态X = [x,y,h,w,delta_x,delta_y],中心坐标,宽高,中心坐标速度
# 观测值
# 如何寻找目标的观测值
# 观测到的是N个框
# 怎么找到目标的观测值
# t时刻的框与t-1后验估计时刻IOU最大的框的那个作为观测值(存在误差,交叉情况下观测值会有误差)
# 所以需要使用先验估计值进行融合
## 状态初始化
initial_target_box = [729, 238, 764, 339]  # 目标初始bouding box
# initial_target_box = [193 ,342 ,250 ,474]initial_box_state = xyxy_to_xywh(initial_target_box)
initial_state = np.array([[initial_box_state[0], initial_box_state[1], initial_box_state[2], initial_box_state[3],0, 0]]).T  # [中心x,中心y,宽w,高h,dx,dy]
IOU_Threshold = 0.3 # 匹配时的阈值# 状态转移矩阵,上一时刻的状态转移到当前时刻
A = np.array([[1, 0, 0, 0, 1, 0],[0, 1, 0, 0, 0, 1],[0, 0, 1, 0, 0, 0],[0, 0, 0, 1, 0, 0],[0, 0, 0, 0, 1, 0],[0, 0, 0, 0, 0, 1]])# 状态观测矩阵
H = np.eye(6)# 过程噪声协方差矩阵Q,p(w)~N(0,Q),噪声来自真实世界中的不确定性,
# 在跟踪任务当中,过程噪声来自于目标移动的不确定性(突然加速、减速、转弯等)
Q = np.eye(6) * 0.1# 观测噪声协方差矩阵R,p(v)~N(0,R)
# 观测噪声来自于检测框丢失、重叠等
R = np.eye(6) * 1# 控制输入矩阵B
B = None
# 状态估计协方差矩阵P初始化
P = np.eye(6)if __name__ == "__main__":video_path = "./data/testvideo1.mp4"label_path = "./data/labels"file_name = "testvideo1"cap = cv2.VideoCapture(video_path)# cv2.namedWindow("track", cv2.WINDOW_NORMAL)SAVE_VIDEO = Falseif SAVE_VIDEO:fourcc = cv2.VideoWriter_fourcc(*'XVID')out = cv2.VideoWriter('kalman_output.avi', fourcc, 20,(768,576))# ---------状态初始化----------------------------------------frame_counter = 1X_posterior = np.array(initial_state)P_posterior = np.array(P)Z = np.array(initial_state)trace_list = []  # 用于保存目标box的轨迹while (True):# Capture frame-by-frameret, frame = cap.read()last_box_posterior = xywh_to_xyxy(X_posterior[0:4])plot_one_box(last_box_posterior, frame, color=(255, 255, 255), target=False)if not ret:break# print(frame_counter)label_file_path = os.path.join(label_path, file_name + "_" + str(frame_counter) + ".txt")with open(label_file_path, "r") as f:content = f.readlines()max_iou = IOU_Thresholdmax_iou_matched = False# ---------使用最大IOU来寻找观测值------------for j, data_ in enumerate(content):data = data_.replace('\n', "").split(" ")xyxy = np.array(data[1:5], dtype="float")plot_one_box(xyxy, frame)iou = cal_iou(xyxy, xywh_to_xyxy(X_posterior[0:4]))if iou > max_iou:target_box = xyxymax_iou = ioumax_iou_matched = Trueif max_iou_matched == True:# 如果找到了最大IOU BOX,则认为该框为观测值plot_one_box(target_box, frame, target=True)xywh = xyxy_to_xywh(target_box)box_center = (int((target_box[0] + target_box[2]) // 2), int((target_box[1] + target_box[3]) // 2))trace_list = updata_trace_list(box_center, trace_list, 100)cv2.putText(frame, "Tracking", (int(target_box[0]), int(target_box[1] - 5)), cv2.FONT_HERSHEY_SIMPLEX,0.7,(255, 0, 0), 2)# 计算dx,dydx = xywh[0] - X_posterior[0]dy = xywh[1] - X_posterior[1]Z[0:4] = np.array([xywh]).TZ[4::] = np.array([dx, dy])if max_iou_matched:# -----进行先验估计-----------------X_prior = np.dot(A, X_posterior)box_prior = xywh_to_xyxy(X_prior[0:4])# plot_one_box(box_prior, frame, color=(0, 0, 0), target=False)# -----计算状态估计协方差矩阵P--------P_prior_1 = np.dot(A, P_posterior)P_prior = np.dot(P_prior_1, A.T) + Q# ------计算卡尔曼增益---------------------k1 = np.dot(P_prior, H.T)k2 = np.dot(np.dot(H, P_prior), H.T) + RK = np.dot(k1, np.linalg.inv(k2))# --------------后验估计------------X_posterior_1 = Z - np.dot(H, X_prior)X_posterior = X_prior + np.dot(K, X_posterior_1)box_posterior = xywh_to_xyxy(X_posterior[0:4])# plot_one_box(box_posterior, frame, color=(255, 255, 255), target=False)# ---------更新状态估计协方差矩阵P-----P_posterior_1 = np.eye(6) - np.dot(K, H)P_posterior = np.dot(P_posterior_1, P_prior)else:# 如果IOU匹配失败,此时失去观测值,那么直接使用上一次的最优估计作为先验估计# 此时直接迭代,不使用卡尔曼滤波X_posterior = np.dot(A, X_posterior)# X_posterior = np.dot(A_, X_posterior)box_posterior = xywh_to_xyxy(X_posterior[0:4])# plot_one_box(box_posterior, frame, color=(255, 255, 255), target=False)box_center = ((int(box_posterior[0] + box_posterior[2]) // 2), int((box_posterior[1] + box_posterior[3]) // 2))trace_list = updata_trace_list(box_center, trace_list, 20)cv2.putText(frame, "Lost", (box_center[0], box_center[1] - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.7,(255, 0, 0), 2)draw_trace(frame, trace_list)cv2.putText(frame, "ALL BOXES(Green)", (25, 50), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 200, 0), 2)cv2.putText(frame, "TRACKED BOX(Red)", (25, 75), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)cv2.putText(frame, "Last frame best estimation(White)", (25, 100), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (255, 255, 255), 2)cv2.imshow('track', frame)if SAVE_VIDEO:out.write(frame)frame_counter = frame_counter + 1if cv2.waitKey(10) & 0xFF == ord('q'):break# When everything done, release the capturecap.release()cv2.destroyAllWindows()# 关注我# 你关注我了吗# 关注一下

其中的utils.py为

import cv2def xyxy_to_xywh(xyxy):center_x = (xyxy[0] + xyxy[2]) / 2center_y = (xyxy[1] + xyxy[3]) / 2w = xyxy[2] - xyxy[0]h = xyxy[3] - xyxy[1]return (center_x, center_y, w, h)def plot_one_box(xyxy, img, color=(0, 200, 0), target=False):xy1 = (int(xyxy[0]), int(xyxy[1]))xy2 = (int(xyxy[2]), int(xyxy[3]))if target:color = (0, 0, 255)cv2.rectangle(img, xy1, xy2, color, 1, cv2.LINE_AA)  # filleddef updata_trace_list(box_center, trace_list, max_list_len=50):if len(trace_list) <= max_list_len:trace_list.append(box_center)else:trace_list.pop(0)trace_list.append(box_center)return trace_listdef draw_trace(img, trace_list):"""更新trace_list,绘制trace:param trace_list::param max_list_len::return:"""for i, item in enumerate(trace_list):if i < 1:continuecv2.line(img,(trace_list[i][0], trace_list[i][1]), (trace_list[i - 1][0], trace_list[i - 1][1]),(255, 255, 0), 3)def cal_iou(box1, box2):""":param box1: xyxy 左上右下:param box2: xyxy:return:"""x1min, y1min, x1max, y1max = box1[0], box1[1], box1[2], box1[3]x2min, y2min, x2max, y2max = box2[0], box2[1], box2[2], box2[3]# 计算两个框的面积s1 = (y1max - y1min + 1.) * (x1max - x1min + 1.)s2 = (y2max - y2min + 1.) * (x2max - x2min + 1.)# 计算相交部分的坐标xmin = max(x1min, x2min)ymin = max(y1min, y2min)xmax = min(x1max, x2max)ymax = min(y1max, y2max)inter_h = max(ymax - ymin + 1, 0)inter_w = max(xmax - xmin + 1, 0)intersection = inter_h * inter_wunion = s1 + s2 - intersection# 计算iouiou = intersection / unionreturn ioudef cal_distance(box1, box2):"""计算两个box中心点的距离:param box1: xyxy 左上右下:param box2: xyxy:return:"""center1 = ((box1[0] + box1[2]) // 2, (box1[1] + box1[3]) // 2)center2 = ((box2[0] + box2[2]) // 2, (box2[1] + box2[3]) // 2)dis = ((center1[0] - center2[0]) ** 2 + (center1[1] - center2[1]) ** 2) ** 0.5return disdef xywh_to_xyxy(xywh):x1 = xywh[0] - xywh[2]//2y1 = xywh[1] - xywh[3]//2x2 = xywh[0] + xywh[2] // 2y2 = xywh[1] + xywh[3] // 2return [x1, y1, x2, y2]if __name__ == "__main__":box1 = [100, 100, 200, 200]box2 = [100, 100, 200, 300]iou = cal_iou(box1, box2)print(iou)box1.pop(0)box1.append(555)print(box1)

完成代码链接:链接: https://pan.baidu.com/s/11hBNOpZVNojYgD5awcsTgg?pwd=vxtv 提取码: vxtv 复制这段内容后打开百度网盘手机App,操作更方便哦

简单解读一下:

在这个代码里,我们设置了系统状态为X=[x, y, w, h, dx, dy],

状态转移矩阵A=\begin{pmatrix} 1 & 0&0 & 0& 1& 0\\ 0 & 1& 0 & 0& 0& 1\\ 0& 0& 1& 0& 0& 0\\ 0& 0& 0& 1& 0& 0\\ 0& 0& 0& 0& 1& 0\\ 0& 0& 0& 0 & 0&1 \end{pmatrix}控制输入矩阵B=0(零矩阵)

状态观测矩阵H=E=\begin{pmatrix} 1 & 0&0 & 0& 0& 0\\ 0 & 1& 0 & 0& 0& 0\\ 0& 0& 1& 0& 0& 0\\ 0& 0& 0& 1& 0& 0\\ 0& 0& 0& 0& 1& 0\\ 0& 0& 0& 0 & 0&1 \end{pmatrix}

其中过程噪声p(w)~N(0, Q),来自于目标移动的不确定性,Q叫做误差的矩阵

观测噪声p(v)~N(0, R),来自于检测框的丢失,重叠,不确定,R叫做观测噪声的协方差矩阵

同时在代码里,通过调节R和Q(即代码里的*0.1和*1)来选择更相信预测值还是更相信观测值,很明显,由于在单目标跟踪任务中,检测框的重叠和丢失是致命的,而目标的移动多为线性的,所以观测噪声p(v)~N(0, R) >> 过程噪声p(w)~N(0, Q)

所以,这里取Q为*0.1和R为*1

 放上图片的解释

 效果演示

只使用最大IOU的效果

maxiou output

使用kalman的效果

kalman_output

扩展

以上代码使用的系统状态为X=[x, y, w, h, dx, dy],我们可以改为8states的方式来改善跟踪效果(一般的六维数据就已经够了,这里只做演示),

即系统状态为X=[x, y, w, h, dx,dy,dw,dh],相应的

状态转移矩阵A=\begin{pmatrix} 1 &0 &0 &0 &1 &0 &0 &0 \\ 0& 1 & 0 & 0 &0 &1 &0 &0 \\ 0& 0 &1 & 0 & 0 &0 &1 &0 \\ 0& 0 & 0 & 1 &0 &0 &0 &1 \\ 0 & 0 & 0 & 0 &1 &0 &0 &0 \\ 0 & 0 &0 & 0&0 &1 & 0&0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 & 0\\ 0&0 & 0&0 & 0& 0&0 &1 \end{pmatrix}控制输入矩阵B=0(零矩阵)

状态观测矩阵H=E=\begin{pmatrix} 1 &0 &0 &0 &0 &0 &0 &0 \\ 0& 1 & 0 & 0 &0 &0 &0 &0 \\ 0& 0 &1 & 0 & 0 &0 &0 &0 \\ 0& 0 & 0 & 1 &0 &0 &0 &0 \\ 0 & 0 & 0 & 0 &1 &0 &0 &0 \\ 0 & 0 &0 & 0&0 &1 & 0&0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 & 0\\ 0&0 & 0&0 & 0& 0&0 &1 \end{pmatrix}

代码为

import os
import cv2
import numpy as np
from utils import plot_one_box, cal_iou, xyxy_to_xywh, xywh_to_xyxy, updata_trace_list, draw_trace# 单目标跟踪
# 检测器获得检测框,全程只赋予1个ID,有两个相同的东西进来时,不会丢失唯一跟踪目标
# 检测器的检测框为测量值
# 目标的状态X = [x,y,h,w,delta_x,delta_y],中心坐标,宽高,中心坐标速度
# 观测值
# 如何寻找目标的观测值
# 观测到的是N个框
# 怎么找到目标的观测值
# t时刻的框与t-1后验估计时刻IOU最大的框的那个作为观测值(存在误差,交叉情况下观测值会有误差)
# 所以需要使用先验估计值进行融合
## 状态初始化
initial_target_box = [729, 238, 764, 339]  # 目标初始bouding box
# initial_target_box = [193 ,342 ,250 ,474]initial_box_state = xyxy_to_xywh(initial_target_box)
initial_state = np.array([[initial_box_state[0], initial_box_state[1], initial_box_state[2], initial_box_state[3],0, 0, 0, 0]]).T  # [中心x,中心y,宽w,高h,dx,dy,dw,dh]# 状态转移矩阵,上一时刻的状态转移到当前时刻
A = np.array([[1, 0, 0, 0, 1, 0, 0, 0],[0, 1, 0, 0, 0, 1, 0, 0],[0, 0, 1, 0, 0, 0, 1, 0],[0, 0, 0, 1, 0, 0, 0, 1],[0, 0, 0, 0, 1, 0, 0, 0],[0, 0, 0, 0, 0, 1, 0, 0],[0, 0, 0, 0, 0, 0, 1, 0],[0, 0, 0, 0, 0, 0, 0, 1]])
# 观测值丢失时使用的状态转移矩阵
A_ = np.array([[1, 0, 0, 0, 1, 0, 0, 0],[0, 1, 0, 0, 0, 1, 0, 0],[0, 0, 1, 0, 0, 0, 0, 0],[0, 0, 0, 1, 0, 0, 0, 0],[0, 0, 0, 0, 1, 0, 0, 0],[0, 0, 0, 0, 0, 1, 0, 0],[0, 0, 0, 0, 0, 0, 1, 0],[0, 0, 0, 0, 0, 0, 0, 1]])# 状态观测矩阵
H = np.eye(8)# 过程噪声协方差矩阵Q,p(w)~N(0,Q),噪声来自真实世界中的不确定性,
# 在跟踪任务当中,过程噪声来自于目标移动的不确定性(突然加速、减速、转弯等)
Q = np.eye(8) * 0.1# 观测噪声协方差矩阵R,p(v)~N(0,R)
# 观测噪声来自于检测框丢失、重叠等
R = np.eye(8) * 10# 控制输入矩阵B
B = None
# 状态估计协方差矩阵P初始化
P = np.eye(8)if __name__ == "__main__":video_path = "./data/testvideo1.mp4"label_path = "./data/labels"file_name = "testvideo1"cap = cv2.VideoCapture(video_path)# cv2.namedWindow("track", cv2.WINDOW_NORMAL)SAVE_VIDEO = Falseif SAVE_VIDEO:fourcc = cv2.VideoWriter_fourcc(*'XVID')out = cv2.VideoWriter('kalman_output.avi', fourcc, 20,(768,576))# ---------状态初始化----------------------------------------frame_counter = 1X_posterior = np.array(initial_state)P_posterior = np.array(P)Z = np.array(initial_state)trace_list = []  # 用于保存目标box的轨迹while (True):# Capture frame-by-frameret, frame = cap.read()last_box_posterior = xywh_to_xyxy(X_posterior[0:4])plot_one_box(last_box_posterior, frame, color=(255, 255, 255), target=False)if not ret:breakprint(frame_counter)label_file_path = os.path.join(label_path, file_name + "_" + str(frame_counter) + ".txt")with open(label_file_path, "r") as f:content = f.readlines()max_iou = 0max_iou_matched = False# ---------使用最大IOU来寻找观测值------------for j, data_ in enumerate(content):data = data_.replace('\n', "").split(" ")xyxy = np.array(data[1:5], dtype="float")plot_one_box(xyxy, frame)iou = cal_iou(xyxy, xywh_to_xyxy(X_posterior[0:4]))if iou > max_iou:target_box = xyxymax_iou = ioumax_iou_matched = Trueif max_iou_matched == True:# 如果找到了最大IOU BOX,则认为该框为观测值plot_one_box(target_box, frame, target=True)xywh = xyxy_to_xywh(target_box)box_center = (int((target_box[0] + target_box[2]) // 2), int((target_box[1] + target_box[3]) // 2))trace_list = updata_trace_list(box_center, trace_list, 20)cv2.putText(frame, "Tracking", (int(target_box[0]), int(target_box[1] - 5)), cv2.FONT_HERSHEY_SIMPLEX,0.7,(255, 0, 0), 2)# 计算dx,dy,dw,dhdx = xywh[0] - X_posterior[0]dy = xywh[1] - X_posterior[1]dw = xywh[2] - X_posterior[2]dh = xywh[3] - X_posterior[3]Z[0:4] = np.array([xywh]).TZ[4::] = np.array([dx, dy, dw, dh])if max_iou_matched:# -----进行先验估计-----------------X_prior = np.dot(A, X_posterior)box_prior = xywh_to_xyxy(X_prior[0:4])# plot_one_box(box_prior, frame, color=(0, 0, 0), target=False)# -----计算状态估计协方差矩阵P--------P_prior_1 = np.dot(A, P_posterior)P_prior = np.dot(P_prior_1, A.T) + Q# ------计算卡尔曼增益---------------------k1 = np.dot(P_prior, H.T)k2 = np.dot(np.dot(H, P_prior), H.T) + RK = np.dot(k1, np.linalg.inv(k2))# --------------后验估计------------X_posterior_1 = Z - np.dot(H, X_prior)X_posterior = X_prior + np.dot(K, X_posterior_1)box_posterior = xywh_to_xyxy(X_posterior[0:4])# plot_one_box(box_posterior, frame, color=(255, 255, 255), target=False)# ---------更新状态估计协方差矩阵P-----P_posterior_1 = np.eye(8) - np.dot(K, H)P_posterior = np.dot(P_posterior_1, P_prior)else:# 如果IOU匹配失败,此时失去观测值,那么直接使用上一次的最优估计作为先验估计# 此时直接迭代,不使用卡尔曼滤波X_posterior = np.dot(A_, X_posterior)# X_posterior = np.dot(A_, X_posterior)box_posterior = xywh_to_xyxy(X_posterior[0:4])# plot_one_box(box_posterior, frame, color=(255, 255, 255), target=False)box_center = ((int(box_posterior[0] + box_posterior[2]) // 2), int((box_posterior[1] + box_posterior[3]) // 2))trace_list = updata_trace_list(box_center, trace_list, 20)cv2.putText(frame, "Lost", (box_center[0], box_center[1] - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.7,(255, 0, 0), 2)draw_trace(frame, trace_list)cv2.putText(frame, "ALL BOXES(Green)", (25, 50), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 200, 0), 2)cv2.putText(frame, "TRACKED BOX(Red)", (25, 75), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (0, 0, 255), 2)cv2.putText(frame, "Last frame best estimation(White)", (25, 100), cv2.FONT_HERSHEY_SIMPLEX, 0.7, (255, 255, 255), 2)cv2.imshow('track', frame)if SAVE_VIDEO:out.write(frame)frame_counter = frame_counter + 1if cv2.waitKey(0) & 0xFF == ord('q'):break# When everything done, release the capturecap.release()cv2.destroyAllWindows()# 写完了

四.基于C++的kalman鼠标追踪demo

简单阐述

我们使用OpenCV的cv::KalmanFilter类来定义了一个对象,对他的各个参数进行初始化,其中

这一行代码是设置状态转移矩阵,A=\begin{pmatrix} 1& 0&1& 0\\ 0& 1& 0 & 1\\ 0& 0& 1& 0\\ 0& 0 & 0&1 \end{pmatrix}

KF.transitionMatrix = (cv::Mat_<float>(4, 4) <<1,0,1,0,0,1,0,1,0,0,1,0,0,0,0,1); //转移矩阵A

 这两行代码是设置Q和R矩阵,其中Q为*1e-5,R为*1e-1

	setIdentity(KF.processNoiseCov, cv::Scalar::all(1e-5));                            //过程噪声方差矩阵QsetIdentity(KF.measurementNoiseCov, cv::Scalar::all(1e-1));                        //测量噪声方差矩阵R

代码为

CMakeists.txt

cmake_minimum_required(VERSION 3.10)
project(kalman)find_package(OpenCV 3.4.11 REQUIRED)include_directories(${OpenCV_INCLUDE_DIRS})add_executable(kalman test_kalman.cpp)
target_link_libraries(kalman ${OpenCV_LIBS})

main.cpp 

#include "opencv2/video/tracking.hpp"
#include "opencv2/highgui/highgui.hpp"
#include <stdio.h>const int winHeight = 600;
const int winWidth = 800;cv::Point mousePosition = cv::Point(winWidth>>1,winHeight>>1);//mouse event callback
void mouseEvent(int event, int x, int y, int flags, void *param )
{if (event == cv::EVENT_MOUSEMOVE) {mousePosition = cv::Point(x,y);}
}int main (void)
{cv::RNG rng;//1.kalman filter setupconst int stateNum = 4;                                      //状态值4×1向量(x,y,△x,△y)const int measureNum = 2;                                    //测量值2×1向量(x,y)	cv::KalmanFilter KF(stateNum, measureNum, 0);	KF.transitionMatrix = (cv::Mat_<float>(4, 4) <<1,0,1,0,0,1,0,1,0,0,1,0,0,0,0,1);   //转移矩阵AsetIdentity(KF.measurementMatrix);                                                 //测量矩阵HsetIdentity(KF.processNoiseCov, cv::Scalar::all(1e-5));                            //过程噪声方差矩阵QsetIdentity(KF.measurementNoiseCov, cv::Scalar::all(1e-1));                        //测量噪声方差矩阵RsetIdentity(KF.errorCovPost, cv::Scalar::all(1));                                  //后验错误估计协方差矩阵Prng.fill(KF.statePost,cv::RNG::UNIFORM,0,winHeight>winWidth?winWidth:winHeight);   //初始状态值x(0)cv::Mat measurement = cv::Mat::zeros(measureNum, 1, CV_32F);             //初始测量值x'(0),因为后面要更新这个值,所以必须先定义cv::namedWindow("kalman");cv::setMouseCallback("kalman",mouseEvent);cv::Mat image(winHeight,winWidth,CV_8UC3,cv::Scalar(0));while (1){//2.kalman predictioncv::Mat prediction = KF.predict();cv::Point predict_pt = cv::Point(prediction.at<float>(0),prediction.at<float>(1) );   //预测值(x',y')//3.update measurementmeasurement.at<float>(0) = (float)mousePosition.x;measurement.at<float>(1) = (float)mousePosition.y;		//4.updateKF.correct(measurement);//draw image.setTo(cv::Scalar(255,255,255,0));circle(image,predict_pt,5,cv::Scalar(0,255,0),3);    //predicted point with greencircle(image,mousePosition,5,cv::Scalar(255,0,0),3); //current position with blue		char buf[256];sprintf(buf,"predicted position:(%3d,%3d)",predict_pt.x,predict_pt.y);putText(image,buf,cv::Point(10,30),cv::FONT_HERSHEY_SCRIPT_COMPLEX,1,cv::Scalar(0,0,0),1,8);sprintf(buf,"current position :(%3d,%3d)",mousePosition.x,mousePosition.y);putText(image,buf,cv::Point(10,60),cv::FONT_HERSHEY_SCRIPT_COMPLEX,1,cv::Scalar(0,0,0),1,8);imshow("kalman", image);int key = cv::waitKey(3);if (key==27){//esc   break;   }		}
}

效果演示

predicted point with green,current position with blue 

kalman

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://xiahunao.cn/news/2906264.html

如若内容造成侵权/违法违规/事实不符,请联系瞎胡闹网进行投诉反馈,一经查实,立即删除!

相关文章

对form表单对象中数组中的字段进行校验的方法

当对form表单中&#xff0c;数组readings中的字段进行校验时&#xff0c;prop和rules绑定要写成动态的&#xff0c;如下代码 <div v-for"(item,index) in form.readings"><el-form-item label"上次读数" > <!--prop"scds"-->…

R语言赋值符号<-、=、->、<<-、->>的使用与区别

R语言的赋值符号有&#xff1c;-、、-&#xff1e;、&#xff1c;&#xff1c;-、-&#xff1e;&#xff1e;六种&#xff0c;它们的使用与区别如下: <-’&#xff1a;最常用的赋值符号。它将右侧表达式的值赋给左侧的变量&#xff0c;像一个向左的箭头。例如&#xff0c;x …

GitLab更新失败(Ubuntu)

在Ubuntu下使用apt更新gitlab报错如下&#xff1a; An error occurred during the signature verification.The repository is not updated and the previous index files will be used.GPG error: ... Failed to fetch https://packages.gitlab.com/gitlab/gitlab-ee/ubuntu/d…

4、Cocos Creator 动画系统

Animation 组件是节点上的一个组件。Clip 动画剪辑就是一份动画的声明数据&#xff0c;我们将它挂载到 Animation 组件上&#xff0c;就能够将这份动画数据应用到节点上。 1、Clip 参数 1、sample&#xff1a;定义当前动画数据每秒的帧率&#xff0c;默认为 60&#xff0c;这…

【智能家居项目】RT-Thread版本——DHT11获取温湿度 | MQTT上传到服务器 | 服务器控制外设

&#x1f431;作者&#xff1a;一只大喵咪1201 &#x1f431;专栏&#xff1a;《智能家居项目》 &#x1f525;格言&#xff1a;你只管努力&#xff0c;剩下的交给时间&#xff01; 这篇文章中&#xff0c;本喵将使用RT-Thread Studio来实现这个智能家居的项目&#xff0c;最终…

Git_常用命令+代码冲突解决方案

文章目录 基本命令的使用查看git的当前版本初始化配置设置用户名及邮箱设置仓库的认证方式查看当前配置 创建仓库从远程服务器克隆仓库创建本地仓库 添加和提交文件工作区域和文件状态工作区域文件状态 查看文件状态及分支信息查看暂存区的内容添加文件提交文件查看提交日志回退…

vue3编写倒计时效果

说明&#xff1a;来自CSDN-问答板块&#xff0c;题主提问。 需求&#xff1a;如何通过表单控制倒计时开始时间&#xff0c;比如设定倒计时五分钟&#xff0c;循环几次&#xff0c;点击开始倒计时按钮&#xff0c;就让他从5分00秒&#xff0c;开始每秒减少&#xff0c;然后到0分…

Android 12中配置Selinux相关权限问题

1. 从logcat中过滤avc信息 avc: denied { read write } for comm"vendor.demo" name"ttyHW5" dev"tmpfs" ino610 scontextu:r:hal_gnss_default:s0 tcontextu:object_r:device:s0 tclasschr_file permissive1 avc: denied { ioctl } for comm&q…

【CTFshow 电子取证】套的签到题

&#x1f36c; 博主介绍&#x1f468;‍&#x1f393; 博主介绍&#xff1a;大家好&#xff0c;我是 hacker-routing &#xff0c;很高兴认识大家~ ✨主攻领域&#xff1a;【渗透领域】【应急响应】 【Java、PHP】 【VulnHub靶场复现】【面试分析】 &#x1f389;点赞➕评论➕收…

模型 可编程思想

系列文章 分享 模型&#xff0c;了解更多&#x1f449; 模型_总纲目录。一切皆有可能。 1 可编程思想的应用 1.1 自动化智能投资顾问服务 传统的财富管理服务通常需要专业的财务顾问来为客户提供投资建议和资产管理服务。随着技术的发展&#xff0c;越来越多的投资者开始寻求…

mars3d兼容老版本Chrome 浏览器的附件参考记录

问题 源代码里面是es5的写法&#xff0c;怎么在浏览器上就转换了。 mars3d会将es5转es6吗&#xff1f; 看加载的Cesium.js源代码没有问题&#xff0c;但是模块里面的源代码已经转换了&#xff0c;再低版本浏览器上面会无法运行“Uncaught SyntaxError: Unexpected token ?”…

怎么在ADT里调整ABAP代码的格式

这个标题我实在是不咋会写。 具体就是&#xff0c;我在Eclipse里面写代码&#xff0c;但是不知道怎么调整好看的格式。 由于我是个ABAP渣渣&#xff0c;我查询了一下怎么调整。现分享如下&#xff1a; 首先在Eclipse里面选Windows下面的preferences,去把ABAP Development底下…

Docker进阶:Docker Swarm(集群搭建) —实现容器编排的利器

Docker进阶&#xff1a;Docker Swarm&#xff08;集群搭建&#xff09; —实现容器编排的利器 1、什么是Docker Swarm&#xff1f;2、Docker Swarm 与 Docker Compose的区别3、创建一个Swarm集群&#xff08;1-Manager&#xff0c;2-Worker&#xff09;1、资源准备2、初始化Swa…

AIGC重塑金融 | 大模型在金融行业的应用场景和落地路径

作者&#xff1a;林建明 来源&#xff1a;IT阅读排行榜 本文摘编自《AIGC重塑金融&#xff1a;AI大模型驱动的金融变革与实践》&#xff0c;机械工业出版社出版 目录 01 大模型在金融领域的 5 个典型应用场景 02 大模型在金融领域应用所面临的风险及其防范 03 AIGC 技术的科…

前端学习<二>CSS基础——09-CSS案例讲解:博雅互动

前言 CSS已经学了一些基础内容了&#xff0c;我们来讲解一个小案例吧。以博雅互动的官网首页举例。 版心 首页的版心如下&#xff1a; 这里我们要普及一个概念&#xff0c;叫“版心”。版心是页面中主要内容所在的区域。 比如说&#xff0c;网站左上角的logo&#xff0c;设计…

课堂练习:环境体验——Linux 文件操作命令

任务描述 第二个任务就是了解Linxu的文件查看命令&#xff0c;文件编辑基本命令。 相关知识 为了完成本关任务&#xff0c;你需要掌握&#xff1a; 1.文件查看命令。 2.文件编辑基本命令。 文件查看命令 我们要查看一些文本文件的内容时&#xff0c;要使用文本编辑器来查看…

【案例·增】一条insert语句批量插入多条记录

问题描述&#xff1a; 往MySQL中的数据库表中批量插入多条记录&#xff0c;可以使用 SQL 中的 ((), ()…)来处理 案例&#xff1a; INSERT INTO items(name,city,price,number,picture) VALUES(耐克运动鞋,广州,500,1000,003.jpg),(耐克运动鞋2,广州2,500,1000,002.jpg);规则…

jsp用户登录界面

主界面 <% page contentType"text/html;charsetUTF-8" language"java" %> <html> <head><meta charset"UTF-8"><title>登录界面</title> </head> <body bgcolor"#faebd7"> <form…

基于springboot大学生社团活动平台

摘 要 21世纪的今天&#xff0c;随着社会的不断发展与进步&#xff0c;人们对于信息科学化的认识&#xff0c;已由低层次向高层次发展&#xff0c;由原来的感性认识向理性认识提高&#xff0c;网络管理工作的重要性已逐渐被人们所认识&#xff0c;科学化的管理&#xff0c;使信…

二维数组定义 求和,最值,求平均值 JS

定义二维数组 二维数组的求和&#xff0c;最值&#xff0c;求平均值 Eg1 // 二维数组 const matrix [[1, 2, 3],[4, 5, 6],[7, 8, 9] ];// 初始化求和、最大值和最小值 let sum 0; let max Number.MIN_VALUE; let min Number.MAX_VALUE;// 遍历二维数组 for (let i 0; i…