利索能及
我要发布
收藏
专利号: 2020101204105
申请人: 桂林电子科技大学
专利类型:发明专利
专利状态:已下证
更新日期:2025-10-14
缴费截止日期: 暂无
联系人

摘要:

权利要求书:

1.一种基于多策略融合的无人机跟踪方法,其特征在于,包括:

基于Centernet网络对无人机图像样本进行训练,生成特征图;

获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数;

基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置;

对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具体位置;

基于opencv函数获取无人机的中心坐标,实时跟踪无人机。

2.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于Centernet网络对无人机图像样本进行训练,生成特征图的具体步骤,是:获取无人机图像输入RGB三通道,并基于卷积神经网络处理,输出预测值;

基于网络前向传播,提取特征,得到特征图。

3.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述获取无人机信号,并对无人机信号进行分析处理后得到无人机的方向参数得具体步骤,是:检测并获取3公里范围内的无人机信号;

基于使用环境进行数据融合;

通过下变频、A/D采样、数字信道化和阵列信号处理提取无人机信号参数;

基于不同天线的参数进行幅相一体化测向处理,并与数据库比对,得到无人机型号;

基于多站测向交叉定位体制进行定位,得到无人机方向参数。

4.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述基于无人机的方向参数输出控制信号控制摄像机镜头转动,采集无人机的视频图像,得到无人机的估计位置的具体步骤,是:读取无人机方向参数;

计算方向参数与图像中心的差值;

通过数学模型计算出云台的转动量;

通过位置PD算法进行控制云台转动,所述位置PD算法模型如下:其中,S(n)为控制输出,Kp为比例控制参数,Td为微分控制参数,e(n)为当前状态值与目标值之间的差值,n为控制次数, 用Kd表示,则有:S(n)=Kpe(n)+Kd[e(n)-e(n-1)]。

5.如权利要求1所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述对采集的视频图像进行图像块加权处理,基于视觉与频谱联合评估算法,得到无人机在视频图像里的具体位置的具体步骤,是:将图像分为三个图像块,并赋予加权参数;

基于Centernet网络提取特征图每个类别的关键点;

对关键点进行置信度判断,获取具体位置。

6.如权利要求5所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述对关键点进行置信度判断,获取具体位置的具体步骤,是,基于Centernet算法对摄像机采集的原始图像进行第一次置信度判断,若特征图里的关键点小于阈值A,则摄像机放大固定倍数;

若特征图里的关键点大于阈值A,基于加权参数和特征响应值计算方式,使用Centernet算法进行二次置信度判断;

若二次置信度判断特征峰值大于阈值B,用opencv函数画框显示,并回传无人机在图像里的中心坐标(x,y)。

7.如权利要求6所述的一种基于多策略融合的无人机跟踪方法,其特征在于,所述特征响应值计算方式的计算公式,是,y(t)=(ω+B(n))x(t)t≥0,n≥0其中,y(t)代表特征响应值,t代表特征点排序号,x(t)代表原始Centernet算法计算的每个特征点的响应值,ω代表图像块权重,B(n)表示摄像机每放大一次倍数提高的准确度,n代表摄像机放大倍数的次数;

B(n)=(1.1)nβn≥0

其中,β为初始常量。