利索能及
我要发布

专利的价值

高新企业认定

享受最高40%税收减免

政府补贴扶持

新技术行业可享高额政府补贴

招标投标竞标

提升招投标企业竞争力

保护自身技术

防止竞争对手恶意抄袭

获取企业资质

便于申请各类企业资质

企业实力背书

证明企业自身技术实力

买专利 VS 申请专利

买专利

  • 最快30天可用
  • 无驳回风险,转让成功率高
  • 准备材料少,仅需提供基础材料
  • 有需要即可购买
VS

申请专利

  • 3-24个月
  • 有驳回风险,需设计计划实施
  • 准备材料多,撰写材料难度大
  • 需储备产品创新想法或技术
卖家出售
  • 基于归一化注意力机制YOLOv7的交通标志检测方法 ¥24000

    本发明公开基于归一化注意力机制YOLOv7的交通标志检测方法,具体如下:步骤1,获取自动驾驶时拍摄的交通标志的系列图像;步骤2,将步骤1获取的交通标志的系列图像裁剪或填充成固定尺寸的大小图像并把它们都转变成张量;步骤3,将步骤2得到的张量送入到改进后的backbone模块及neck模块进行特征提取;步骤4,在步骤3对原YOLOv7网络改进的基础上继续对原有的head模块进行改进,将步骤3获得特征张量送入到改进后的head模块;步骤5,根据步骤4得到的特征张量送入改进后的head模块的REPConv层,再经过检查头,从而输出交通标志检测结果。解决了现有技术中背景复杂下交通标志检测精度低的问题。
  • 基于轻量化骨干网络的目标检测方法 ¥24000

    本发明公开的基于轻量化骨干网络的目标检测方法,具体按照以下步骤实施:步骤1、准备预训练数据集Tiny‑Imagenet和VOC格式的训练数据集;步骤2、搭建特征提取网络LBNet;步骤3、搭建由LBNet的多层输出特征构成的特征金字塔结构,并且在通过步骤1得到的Tiny‑Imagenet数据集中进行预训练,得到预训练权重。步骤4、设计anchors生成容器算法,生成区域推荐网络所需的anchors尺寸。步骤5、完成模型的训练和预测。该方法解决了现有检测技术中存在的检测效率低和边界框定位不准的问题。
  • 基于SE-ResNet的图像隐写方法 ¥24000

    本发明公开了一种基于SE‑ResNet的图像隐写方法,具体包括如下步骤:步骤1,获取秘密图像Memb和载体图像Icover的B通道Icover‑B;步骤2,将步骤1中的得到的秘密图像Memb和载体图像Icover的B通道Icover‑B分别输入到编码网络中,获取级联后的特征图;步骤3,将步骤2中得到的级联特征图经过3个SE‑ResNet块和2个卷积层得到最终的隐写图像的B通道Istego‑B;步骤4,根据步骤3所得结果获取隐写图像Istego;步骤5,提取得到秘密图像Mext。采用本发明提高了图像隐写的容量,增强了图像的不可见性,使得秘密信息不易被检测出来。
  • 基于自适应面部动作特征阈值的疲劳驾驶检测方法 ¥24000

    本发明公开的基于自适应面部动作特征阈值的疲劳驾驶检测方法,具体包括如下步骤:步骤1,获取实时拍摄驾驶员驾驶过程的视频,并将视频流加载成图像帧;步骤2,识别步骤1加载的图像帧中的标签信息、置信度和位置信息;步骤3,循环读取步骤1加载的图像帧,并计算EAR和MAR;步骤4,在不同时段根据步骤3获得的EAR和MAR自适应计算出EART和MART;步骤5,统计眨眼次数和打哈欠次数;步骤6,根据步骤5统计的眨眼次数和打哈欠次数进行判断当前时段是否疲劳,然后继续循环执行步骤1,进行判断下一时段的疲劳状态。该方法解决了现有技术中使用固定的疲劳检测阈值而产生的鲁棒性低和可靠性低的问题。
  • 基于自适应关注区域Transformer的图像分类方法 ¥24000

    本发明公开基于自适应关注区域Transformer的图像分类方法:步骤1,选取n张图像作为训练样本集合P={p1,p2,...,pn},然后对训练样本集合P中的第i={1,2,...,n}张图像pi使用尺度不变特征变换获得N个特征点;步骤2,获得步骤1中的N个特征点中最密集区域的中心点M(x,y);步骤3,确定关注区域及非关注区域;步骤4,分别提取关注区域和非关注区域的特征为F1和F2,进行融合组成图像特征F;步骤5,通过MART网将步骤4获得的图像特征F分别与新的分类标签和新的位置标签融合组成图像特征标签FT;步骤6,进行图像分类。该方法解决了现有方法中将图像无差别划分成相同尺寸的图像块进行图像分类而产生的降低分类精度和鲁棒性的问题。
  • 基于GAN网络的人体骨骼数据生成方法 ¥24000

    本发明公开一种基于GAN(Generative Adversarial Network,生成对抗网络)网络的人体骨骼数据生成方法,搭建时空GAN网络模型,分成空间人体生成网络和人体动作序列生成网络,整体上利用GAN对抗生成的思路,在时间、空间不同的模型上,分别对生成器和判别器提出新的内部结构,从而利用时空GAN网络模型进行人体骨骼数据的生成。本发明解决了目前主流的行为识别数据集制作成本高,某些类别的动作数据匮乏,而通过生成的方法生成的样本可以用于扩充人体行为识别数据集,有效降低训练过程中的过拟合问题。
  • 基于时空信息融合的目标跟踪方法 ¥24000

    本发明公开一种基于时空信息融合的目标跟踪方法,具体步骤包括:选择特征提取网络、使用目标外观特征进行跟踪的基跟踪器、使用目标运动特征进行预测的位置预测模块;获取跟踪视频,在视频的第一帧选定目标所在区域并提取该区域的深度特征;使用基跟踪器获得基于目标外观特征的跟踪结果;使用位置预测模块获得基于目标运动特征的跟踪结果;分别提取这两个跟踪结果的深度特征,度量它们和第一帧目标深度特征的相似性,取相似性最大的作为最终的跟踪结果。本发明能够根据不同的场景自动切换对目标外观特征和对目标运动特征的利用,提升了跟踪方法的鲁棒性。
  • 基于多个潜在域混合的域泛化图像分类方法 ¥24000

    本发明基于多个潜在域混合的域泛化图像分类方法,步骤包括:1)获取领域泛化数据集,进行数据增强和数据集扩充;2)构建AlexNet网络,加载预训练权重,对AlexNet网络进行对抗式训练;3)提取AlexNet网络的浅层特征,获得卷积特征统计信息,计算域判别特征;4)将卷积特征统计信息进行聚类,分为若干个簇,并根据簇为数据分配伪域标签;同时对伪域标签进行更新;5)将伪域标签输入给领域判别器完成领域判别器的训练,同时完成整体图像的分类网络的训练,将未参与训练的数据作为测试集输入给分类网络,得到分类结果。本发明的方法,提高网络的泛化性能,具有更好的分类和预测性能。
  • 基于领域自适应的跨域目标检测方法 ¥24000

    本发明公开一种基于领域自适应的跨域目标检测方法,包括:步骤1,获取包括源域Ds和目标域DT的目标检测数据集,进行数据增强和数据集扩充;步骤2,采用扩充后的数据集对CycleGAN网络进行训练并输出生成数据域DG;步骤3,构建Faster RCNN网络作为目标检测器,将源域Ds和生成数据域DG作为训练集对目标检测器进行训练;步骤4,对目标域DT的数据集进行复杂度评估对目标检测器进行再训练;步骤5,采用步骤4训练好的目标检测器对待检测数据进行目标检测,最终得到检测结果。本发明解决了当拥有具有实例级标签的源域,而目标域中不具备实例级标签时,在目标检测中对深度模型性能的影响,以及导致训练后实例类别和边界框位置预测准确率低下的问题。
  • 基于特征重映射的视觉目标跟踪方法 ¥24000

    本发明基于特征重映射的视觉目标跟踪方法,步骤包括:1)骨干网络分别提取模板特征和搜索区域特征,计算深度互相关,经过分类分支和回归分支,生成分类特征图和回归特征图;2)构建干扰评估网络,得到响应图,分析是否存在相似目标或杂波干扰;3)启用特征重映射网络获得重映射模板特征和重映射搜索区域特征,进行深度互相关计算,生成重映射分类响应图;4)融合重映射分类响应图,解算被并获得最终跟踪目标位置;5)在线收集干扰集和目标集并构建在线样本集合,计算在线样本集合的损失,梯度回传更新特征重映射网络的参数。本发明的方法,通过重映射提高目标特征的判别性,提升跟踪方法抗干扰性能。
买家求购