利索能及
我要发布

专利的价值

高新企业认定

享受最高40%税收减免

政府补贴扶持

新技术行业可享高额政府补贴

招标投标竞标

提升招投标企业竞争力

保护自身技术

防止竞争对手恶意抄袭

获取企业资质

便于申请各类企业资质

企业实力背书

证明企业自身技术实力

买专利 VS 申请专利

买专利

  • 最快30天可用
  • 无驳回风险,转让成功率高
  • 准备材料少,仅需提供基础材料
  • 有需要即可购买
VS

申请专利

  • 3-24个月
  • 有驳回风险,需设计计划实施
  • 准备材料多,撰写材料难度大
  • 需储备产品创新想法或技术
卖家出售
  • 基于超像素和图卷积的端到端极化SAR图像分类方法 ¥24000

    本发明公开一种基于超像素和图卷积的端到端极化SAR图像分类方法,包括以下步骤:步骤1,输入待分类的极化SAR图像并裁剪成统一大小;步骤2,将剪裁后图片的按比例划分为训练集和测试集;步骤3,对测试集合训练集的每张图像的每个像素点的复散射矩阵进行分解,生成极化相干矩阵并转换为行向量作为该像素点的极化特征;步骤4,将极化特征拼接上该像素点的横纵坐标,拼接行向量作为像素点特征;步骤5,搭建基于全卷积网络、图卷积网络和卷积神经网络的端到端网络;步骤6,将训练集送入端到端网络中进行联合训练,将测试集送入到训练好的端到端网络中得到结果。本发明能够进一步提高极化SAR图像的分类精度。
  • 基于多曝光多尺度递归融合的弱光图像增强方法 ¥24000

    本发明公开了基于多曝光多尺度递归融合的弱光图像增强方法,提出了多曝光特征递归融合模块块以及相应的融合策略,保留原始图像中的特征信息以及对不同曝光分支的输出进行自适应融合;通过多曝光产生块制造多种不同曝光的输出,统计正常光图像的亮度信息,构成一个概率分布,每次从中随机抽取一个全局比例因子来对每次的原始输入进行随机的曝光度的增强。通过多曝光产生块来得到原始图像不同曝光程度的输出,将不同曝光程度的输出利用多尺度特征增强网络进行从低分辨率到全分辨率的递归增强,将增强后的结果进行微调,得到高质量的增强输出。还能解决图像增强过程中由于亮度增强不充分、对比度较低、颜色偏淡、在恢复过程中将噪声放大的问题。
  • 一种基于多特征融合的手指灵活检测方法 ¥24000

    本发明公开的一种基于多特征融合的手指灵活性检测方法,首先利用置于手部运动垂直上方的RGB相机拍摄正常人和有手部功能障碍的人在设计好的游戏环境下运动的敲击键盘的手部运动视频,然后再将视频提取成视频帧,经过OpenPose模型得到手部21个关节点的坐标,然后根据敲击键盘的时间序列得到手指敲击键盘前后瞬间的视频帧集合,然后计算手指运动的角度变化和角速度,然后计算正常人和有手部功能障碍人敲击键盘每个手指的准确率,最后将平均角速度和手指敲击键盘的准确率融合,通过SVM训练,判断并分类出手指灵活性较差的人群。本发明通过采集手部运动特征,得到手指灵活性检测模型,判断并分类出手指灵活性较差的人群,其分类的准确率在75%以上。
  • 一种光场特征油画鉴别方法 ¥24000

    本发明公开了一种光场特征油画鉴别方法,过程如下:将微透镜阵列板贴合于油画表面并拍摄,得到光场原始图像;对光场原始图像进行解码得到四维参数化矩阵;提取多个子孔径图像;将中心行子孔径图像统一剪裁为分辨率相等的图像,将剪裁后的中心行子孔径图像转换为灰度图像,计算灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像;对两幅灰度图像逐像素的提取基于视角稳定变化的特征点作为数据集,并固定五个初始质心点对数据集进行K‑Means聚类分析,得到最终质心点;将最终质心点连接成多边形图像,计算相似性值,当相似性值低于阈值时为真,反之为假。
  • 一种前列腺组织轮廓线控制点的检测方法 ¥24000

    本发明公开了一种前列腺组织轮廓线控制点的检测方法,包括:对多张原始核磁共振图进行前列腺组织轮廓线的标注,得到多条前列腺组织轮廓线,提取每条前列腺组织轮廓线的像素坐标;在每条前列腺组织轮廓线像素坐标中选择特征点,并生成对应热图,得到数据集;构建U‑Net网络,初始化训练参数;将数据集输入U‑Net网络进行训练,得到网络模型;将原始核磁共振图输入网络模型预测得到预测特征点,将预测特征点连接得到前列腺组织轮廓线。采用自定义损失函数,能有效地缩小控制点的预测误差;同时通过可解释的训练方式,不断学习控制点的特征信息,提高模型预测控制点的效率,最终高效、自动
  • 基于Faster R-CNN的图模型构建方法 ¥24000

    本发明公开了一种基于Faster R‑CNN的图模型构建方法,具体为:步骤1,将目标图像送入已经训练好的基于Faster R‑CNN的目标检测网络模型中,输出目标图像中各个目标对应的检测框;步骤2,根据设定的阈值对目标检测框进行筛选,去掉冗余的目标检测框;步骤3,给目标检测框分配唯一的标签;步骤4,将图像的目标划分为主要目标和次要目标,然后对次要目标构建目标树;步骤5,确定两个物体之间的相对位置关系;步骤6、根据目标树以及目标之间的位置关系构建图像的图模型。本发明的基于FasterR‑CNN的图模型构建方法,建立出的图模型能有效的表示出各个目标在目标图像中的空间布局和语义联系。
  • 基于Transformer和图像融合的弱光增强方法 ¥24000

    本发明公开了基于Transformer和图像融合的弱光增强方法,具体为:步骤1,使用DoubleGamma变换将弱光场景下的红外和可见光图像分别进行预处理;步骤2,对红外输入图像和可见光输入图像中的局部和全局相关性进行建模;步骤3,使用Fusionblock将红外图像特征序列和可见光图像的特征序列融合在一起,使用Enhanceblock对融合结果进行特征增强;步骤4,根据融合特征,重建融合结果;步骤5,根据损失更新网络参数,使得网络逐渐收敛,得到一个输出最优融合图像的网络。本发明方法建立的网络模型能有效的提取出红外和可见光图像的深层特征,并构建融合图像。
  • 高频纹理重建的弱光图像增强方法 ¥24000

    本发明公开了一种高频纹理重建的弱光图像增强方法,采用SGHFP集成CNN模块和Transformer模块,使网络同时关注图像高频信息的局部和全局信息,最终将网络输出特征融合为高频信息重建图像,通过动态调整损失函数的权重,避免手工赋值,以约束网络达到最优的融合结果,从弱光环境中的可见光图像出发得到最终增强图像,且增强图像具有更加丰富的细节信息和更加清晰的结构轮廓。本发明解决了现有技术中存在的增强算法并不容易得到一个清晰、边缘轮廓结构明显和去噪结果优异的图像的问题。
  • 一种基于光场傅里叶视差分层的特征检测方法 ¥23000

    本发明公开了一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像只能聚焦在某一固定深度,其他深度的目标模糊不清,进而导致二维图像特征检测不全面和深度信息缺失的难题。与现有技术相比,本发明方法的有点在于,可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。
  • 一种基于圆形邻域的梯度直方图特征描述方法 ¥24000

    本发明公开了一种基于圆形邻域的梯度直方图特征描述方法,解决了现有的基于方形邻域的特征描述方法鲁棒性及其效率难以折中的难题。与现有技术相比,本发明方法的优点在于,基于圆形邻域的特征描述方法避免了两次计算邻域内梯度所带来的计算复杂度高、效率差的问题,极大的提升了计算效率。
买家求购