利索能及
我要发布
收藏
专利号: 2023110111601
申请人: 中国矿业大学
专利类型:发明专利
专利状态:已下证
更新日期:2025-10-14
缴费截止日期: 暂无
联系人

摘要:

权利要求书:

1.一种基于卷积神经网络的驾驶员两点预瞄识别方法,其特征在于,包括如下步骤:步骤1、数据集构建:构建两点预瞄数据集,使用自动驾驶数据集的图片,将标签重新划分为近点预瞄和远点预瞄,然后将新的数据集划分为训练集和测试集;

步骤2、模型搭建:搭建两点预瞄检测模型AD Model,采用设计的ADDarkNet作为主干网络,DANet作为改进后的检测器,输出部分采用2个检测头,分别针对性检测近点和远点预瞄;

步骤3、特征提取:采用SPP金字塔特征池化层提取深层次信息,DANet作为检测器,融入AD attention坐标注意力机制,提高网络对图片近远点的信息提取;

步骤4、模型训练:基于构建的新自动驾驶数据集进行模型的训练,在训练阶段融入坐标损失函数弥补信息的缺少同时提高对近远点信息捕获;

步骤5、检测阶段:以自动驾驶过程中摄像头拍摄的真实驾驶场景图片为输入,通过设计的网络,对两点预瞄进行预测,根据真实驾驶场景的天气条件,在检测器部分选择性加入无监督域自适应模块,提高模型对恶劣天气的泛化能力;

所述步骤2中搭建两点预瞄检测模型AD Model具体操作为:首先,主干网络采用设计的ADDarkNet,当图片输入进模型的时候,会先经过主干网络进行信息提取,其中的Adblock‑body模块采用了融合AD attention的坐标注意力机制,该模块用于提取图片中的坐标信息;然后进入DANet检测器,采用自顶向下的特征提取方式,融入AD attention坐标注意力机制,进一步捕获信息;其中,第一个检测头用于检测近点预瞄信息,第二个检测头用于检测远点预瞄信息;

所述步骤3中的AD attention坐标注意力机制是指:该坐标注意力机制将坐标信息嵌入到特征提取中,坐标信息分解为两个特征编码过程,分别沿两个空间方向聚合特征。

2.根据权利要求1所述的基于卷积神经网络的驾驶员两点预瞄识别方法,其特征在于,在所述步骤3中,取任何中间特征张量X=[x1,x2,....,xn]xn∈C*H*W作为输入和输出具有与X相同大小的增广表示Y=[y1,y2,....,yn]yn∈C*H*W的变换张量,给定一个输入的Xc(j,i),使用卷积核(H,1)或(1,W)的两个空间范围分别沿水平坐标和垂直坐标对每个通道进行编码,根据公式(1),高度h处的第c通道的输出表示为:其中:w为卷积核的宽,i为Xc的宽;

根据公式(2),宽度w处的第c通道的输出可以写为:

其中:H为卷积核的高,j为Xc的高。

3.根据权利要求2所述的基于卷积神经网络的驾驶员两点预瞄识别方法,其特征在于,为了增加对两点预瞄的检测精度,在所述步骤4中设计一种坐标损失函数,通过计算预测坐标与真实坐标之间的差异来衡量目标位置的预测精度,采用均方误差MSE作为损失函数,假设一个目标位置的真实坐标为(xtrue,ytrue),而网络预测的位置为(xpred,ypred),根据公式(3)则所述步骤4中的坐标损失函数Losslocation定义为:Losslocation=MSE|(xpred‑xtrue)|+MSE|(ypred‑ytrue)|     (3)根据公式(4),MSE定义为:

2 2

MSE=(xpred‑xtrue) +(ypred‑ytrue)    (4)通过最小化坐标损失函数,模型更准确地预测两点预瞄目标位置。

4.根据权利要求3所述的基于卷积神经网络的驾驶员两点预瞄识别方法,其特征在于,所述步骤5中的无监督域自适应UDA方法是指:该方法通过诱导来自源域和目标域的检测器特征之间的对齐,来学习从标记的源域适应未标记的目标域;根据公式(5),所述步骤5中的自适应损失函数定义为:Lossself‑adaption=Lrain+Lfog    (5)其中:Lrain为雨天信息干扰,Lfog为雾天信息干扰;

根据公式(6),Lrain定义为:

Lrain=a*(D+R)+b*S     (6)

其中:D表示照片中每个像素中包含的雨滴数量的平均值或雨滴所占像素百分比,R表示为每个像素中雨滴的方差或标准差,反映雨滴大小的不一致性,S表示为照片中光线散射效果的平均强度,a和b是权重参数,用于调整不同因素对干扰程度的贡献度;根据公式(7),Lfog定义为:Lfog=a*(F+E)+b*C       (7)

其中:F表示雾霾浓度;E表示雾霾颗粒物的分布密度,C表示颜色失真程度。