• 综合
  • 标题
  • 关键词
  • 摘要
  • 学者
  • 期刊-刊名
  • 期刊-ISSN
  • 会议名称
搜索
高影响力成果及被引频次趋势图 关键词云图及合作者关系图

您的检索:

学者姓名:胡永利

精炼检索结果:

来源

应用 展开

合作者

应用 展开

清除所有精炼条件

排序方式:
默认
  • 默认
  • 标题
  • 年份
  • WOS被引数
  • 影响因子
  • 正序
  • 倒序
< 页,共 27 >
Robust discriminant analysis with feature selective projection and between-classes structural incoherence SCIE
期刊论文 | 2023 , 134 | DIGITAL SIGNAL PROCESSING
WoS核心集被引次数: 2
摘要&关键词 引用

摘要 :

Our paper proposes a new feature extraction method, named as robust discriminant analysis (RDA), for data classification tasks. Based on linear discriminant analysis (LDA), RDA integrates the feature selection and feature extraction into a unified framework. The transformation matrix with l2,1-norm constraint is introduced to map original data feature into a discriminative low-dimensional subspace, in which the l2,1 sparsity regularizer can endow the feature selection with better interpretability. And, we use two different matrices (i.e., transformation matrix P and reconstruction matrix Q) for better data reconstruction, which can provide more freedom to ensure that the learned data representation holds the main variance and hence improve robustness to noises. To ensure that the learned features are optimal for classification, the structurally incoherent learning is introduced to add additional discriminant ability by minimizing the correlation of different classes. In other hand, the between-classes structural incoherence term is also equivalent to cosine distance metric, which is robust to noises and outliers. An efficient optimization algorithm is designed to solve the proposed optimization model. Extensive experiments conducted on all kinds of benchmark databases confirm the superiority of the proposed method.(c) 2022 Elsevier Inc. All rights reserved.

关键词 :

Robust data reconstruction Robust data reconstruction Feature selection Feature selection Feature extraction Feature extraction Structural incoherence Structural incoherence Linear discriminant analysis Linear discriminant analysis

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 Guo, Jipeng , Sun, Yanfeng , Gao, Junbin et al. Robust discriminant analysis with feature selective projection and between-classes structural incoherence [J]. | DIGITAL SIGNAL PROCESSING , 2023 , 134 .
MLA Guo, Jipeng et al. "Robust discriminant analysis with feature selective projection and between-classes structural incoherence" . | DIGITAL SIGNAL PROCESSING 134 (2023) .
APA Guo, Jipeng , Sun, Yanfeng , Gao, Junbin , Hu, Yongli , Yin, Baocai . Robust discriminant analysis with feature selective projection and between-classes structural incoherence . | DIGITAL SIGNAL PROCESSING , 2023 , 134 .
导入链接 NoteExpress RIS BibTex
一种面向引文数据聚类的多图卷积聚类方法 incoPat
专利 | 2023-03-01 | CN202310183587.3
摘要&关键词 引用

摘要 :

本发明公开了一种面向引文数据聚类的多图卷积聚类方法,构造蕴含原始数据底层结构信息的K最近邻图,为了提取原始数据的底层结构信息,对每一个样本数据,将计算样本数据与不同样本数据之间的余弦相似度。基于构建K最近邻图,获取到原始数据的底层结构信息,用自编码模块增强的数据表证,引入更多已经构建的关系图;经过多图卷积模块,得到了经过不同图卷积操作的特征表示。受到自注意力机制的启发,寻求在每一个节点之间学习相对应的自适应权重。通过融合各个视图的信息来获得丰富的判别信息,同时使得聚类效果得到提升。本发明通过利用多图数据,降低了对单图质量的依赖性,与现有的图卷积聚类方法相比,模型更具鲁棒性。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 王博岳 , 王一凡 , 贺霞霞 et al. 一种面向引文数据聚类的多图卷积聚类方法 : CN202310183587.3[P]. | 2023-03-01 .
MLA 王博岳 et al. "一种面向引文数据聚类的多图卷积聚类方法" : CN202310183587.3. | 2023-03-01 .
APA 王博岳 , 王一凡 , 贺霞霞 , 刘洋 , 胡永利 . 一种面向引文数据聚类的多图卷积聚类方法 : CN202310183587.3. | 2023-03-01 .
导入链接 NoteExpress RIS BibTex
一种基于多阶段模态表示的情感预测方法 incoPat
专利 | 2023-03-07 | CN202310209523.6
摘要&关键词 引用

摘要 :

本发明公开了一种基于多阶段模态表示的情感预测方法,分为编码阶段、模态互补阶段和预测阶段;本方法在特征表示学习阶段,改进了多模态输入之间的互信息,以过滤掉与任务无关的模态特定随机噪声,在所有模态中保留尽可能多的模态不变内容。其次,在特征融合阶段,训练鉴别器区分这些融合表示来自哪些模态,并保持模态彼此独立。在预测阶段,对融合后的不同特征之间的距离进行约束,并将它们投影到不同的特征空间。本发明所提出的网络模型取得了更好的性能;同时也做了相关的消融实验,最终实验证明,本发明所提出的基于多阶段模态表示的情感预测方法能使得多模态情感预测任务达到最优值。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 尹宝才 , 李旭浩 , 胡永利 . 一种基于多阶段模态表示的情感预测方法 : CN202310209523.6[P]. | 2023-03-07 .
MLA 尹宝才 et al. "一种基于多阶段模态表示的情感预测方法" : CN202310209523.6. | 2023-03-07 .
APA 尹宝才 , 李旭浩 , 胡永利 . 一种基于多阶段模态表示的情感预测方法 : CN202310209523.6. | 2023-03-07 .
导入链接 NoteExpress RIS BibTex
基于弱化低质量负样本的时序知识图谱补全方法 incoPat
专利 | 2023-03-20 | CN202310266322.X
摘要&关键词 引用

摘要 :

本发明公开了基于弱化低质量负样本的时序知识图谱补全方法,为了平衡负样本多样性和负样本质量,该方法使用高质量和中等质量的负样本以增强模型判别能力,即弱化低质量负样本产生的影响。该方法提出的低质量负样本选择和弱化模块可以挑选出低质量负样本并调节它们的分数以弱化低质量负样本的消极影响。在交叉熵损失中引入了自适应加权负样本损失正则化项,该正则化项计算了每个负样本的损失值,并自适应地为每个负样本损失值分配不同的权重,以充分利用不同质量负样本的潜在信息。自适应加权负样本损失正则化项与低质量负样本选择和弱化模块都起到了积极影响。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 王博岳 , 胡思敏 , 王家普 et al. 基于弱化低质量负样本的时序知识图谱补全方法 : CN202310266322.X[P]. | 2023-03-20 .
MLA 王博岳 et al. "基于弱化低质量负样本的时序知识图谱补全方法" : CN202310266322.X. | 2023-03-20 .
APA 王博岳 , 胡思敏 , 王家普 , 赵岚 , 胡永利 . 基于弱化低质量负样本的时序知识图谱补全方法 : CN202310266322.X. | 2023-03-20 .
导入链接 NoteExpress RIS BibTex
基于层次多粒度交互图卷积网络的长文档分类方法及装置 incoPat
专利 | 2023-03-24 | CN202310316635.1
摘要&关键词 引用

摘要 :

基于层次多粒度交互图卷积网络的长文档分类方法及装置,在控制模型计算复杂度的情况下,能够构建网络以刻画长文档完备的层次结构化信息,以及进行图间信息交互。方法包括:(1)获得长文档层次化多粒度表示;(2)执行多层层次叠加的段落图卷积、句子图卷积和单词图卷积,以及相应的图间交互;(3)为了融合不同粒度不同尺度的语义信息,使用最大池化分别聚合段落图的终层输出,以及句子图和单词图每一层的输出。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 胡永利 , 刘腾飞 , 孙艳丰 et al. 基于层次多粒度交互图卷积网络的长文档分类方法及装置 : CN202310316635.1[P]. | 2023-03-24 .
MLA 胡永利 et al. "基于层次多粒度交互图卷积网络的长文档分类方法及装置" : CN202310316635.1. | 2023-03-24 .
APA 胡永利 , 刘腾飞 , 孙艳丰 , 尹宝才 . 基于层次多粒度交互图卷积网络的长文档分类方法及装置 : CN202310316635.1. | 2023-03-24 .
导入链接 NoteExpress RIS BibTex
基于跨模态多粒度交互融合的长文档分类方法及装置 incoPat
专利 | 2023-03-24 | CN202310301100.7
摘要&关键词 引用

摘要 :

基于跨模态多粒度交互融合的长文档分类方法及装置,能够有效弥补现有方法对视觉信息的忽视,通过引入特征偏移网络在不同粒度实现跨模态的交互和融合,控制计算复杂度,达到分类准确率和分类效率的平衡。方法包括:(1)输入一个长文档中对应的文本序列,以及对应的单张或多张图片;(2)分别通过预训练编码器BERT和VGG‑16提取对应模态的多粒度特征表示;(3)使用多模态协同池化模块,在视觉信息和文本信息的协同引导下池化细粒度文本特征;(4)使用跨模态特征偏移网络,分别在4个不同的粒度组合下实现跨模态特征的交互和融合;(5)使用特征聚合网络实现多空间特征的融合,并获得最终的长文档分类结果。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 胡永利 , 刘腾飞 , 孙艳丰 et al. 基于跨模态多粒度交互融合的长文档分类方法及装置 : CN202310301100.7[P]. | 2023-03-24 .
MLA 胡永利 et al. "基于跨模态多粒度交互融合的长文档分类方法及装置" : CN202310301100.7. | 2023-03-24 .
APA 胡永利 , 刘腾飞 , 孙艳丰 , 尹宝才 . 基于跨模态多粒度交互融合的长文档分类方法及装置 : CN202310301100.7. | 2023-03-24 .
导入链接 NoteExpress RIS BibTex
A multi-scale feature representation and interaction network for underwater object detection SCIE
期刊论文 | 2022 , 17 (3) , 265-281 | IET COMPUTER VISION
WoS核心集被引次数: 6
摘要&关键词 引用

摘要 :

Compared with natural images, underwater images are usually degraded with blur, scale variation, colour shift and texture distortion, which bring much challenge for computer vision tasks like object detection. In this case, generic object detection methods usually fail to achieve satisfactory performance. The main reason is considered that the current methods lack sufficient discriminativeness of feature representation for the degraded underwater images. A a novel multi-scale feature representation and interaction network for underwater object detection is proposed, in which two core modules are elaborately designed to enhance the discriminativeness of feature representation for underwater images. The first is the Context Integration Module, which extracts rich context information from high-level features and is integrated with the feature pyramid network to enhance the feature representation in a multi-scale way. The second is the Dual-refined Attention Interaction Module, which further enhances the feature representation by sufficient interactions between different levels of features both in channel and spatial domains based on attention mechanism. The proposed model is evaluated on four public underwater datasets. The experimental results compared with state-of-the-art object detection methods show that the proposed model has leading performance, which verifies that it is effective for underwater object detection. In addition, object detection experiments on a foggy dataset of Real-world Task-driven Testing Set (RTTS) and the natural image dataset of pattern analysis statistical modelling and computational learning, visual object classes (PASCAL VOC) are conducted. The results show that the proposed model can be applied on the degraded dataset of RTTS but fails on PASCAL VOC.

关键词 :

convolutional neural nets convolutional neural nets object detection object detection computer vision computer vision

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 Yuan, Jiaojiao , Hu, Yongli , Sun, Yanfeng et al. A multi-scale feature representation and interaction network for underwater object detection [J]. | IET COMPUTER VISION , 2022 , 17 (3) : 265-281 .
MLA Yuan, Jiaojiao et al. "A multi-scale feature representation and interaction network for underwater object detection" . | IET COMPUTER VISION 17 . 3 (2022) : 265-281 .
APA Yuan, Jiaojiao , Hu, Yongli , Sun, Yanfeng , Yin, Baocai . A multi-scale feature representation and interaction network for underwater object detection . | IET COMPUTER VISION , 2022 , 17 (3) , 265-281 .
导入链接 NoteExpress RIS BibTex
一种基于多尺度动态图卷积的弱监督人群计数方法 incoPat
专利 | 2022-07-21 | CN202210859858.8
摘要&关键词 引用

摘要 :

一种基于多尺度动态图卷积网络的弱监督人群计数方法属于人群计数在公共安全、城市规划和交通调度等领域。由于交通场景的复杂性和多样性,对大量人群进行点级标注非常困难,而且需要大量人力。弱监督人群计数更适合这些场景,因为它们只需要计数级别的注释。现有的弱监督人群计数忽略了交叉距离人群密度分布的不均匀性和多尺度人群头部,无法获得与全监督人群计数方法相似的准确计数结果。本发明提出了一种多级区域动态图卷积模块来提取不同人群区域之间的内在关系,从而学习动态区域得分,进而优化区域特征表示,还设计了一个粗粒度的多级特征融合模块来提取多尺度人群头部信息。本发明具有较高的回归精度的端到端人群计数能力。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 张勇 , 苗壮壮 , 孙艳丰 et al. 一种基于多尺度动态图卷积的弱监督人群计数方法 : CN202210859858.8[P]. | 2022-07-21 .
MLA 张勇 et al. "一种基于多尺度动态图卷积的弱监督人群计数方法" : CN202210859858.8. | 2022-07-21 .
APA 张勇 , 苗壮壮 , 孙艳丰 , 胡永利 , 尹宝才 . 一种基于多尺度动态图卷积的弱监督人群计数方法 : CN202210859858.8. | 2022-07-21 .
导入链接 NoteExpress RIS BibTex
一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强方法 incoPat
专利 | 2022-10-20 | CN202211289828.4
摘要&关键词 引用

摘要 :

本发明公开了一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强方法,弱光图像增强模型由一个参数估计模块和图像处理模块组成。参数估计模块通过学习检测网络反馈的信息来回归图像处理模块所需要的超参数,接收超参数的图像处理模块自适应地增强输入图像,促进其在弱光条件下的检测效果。增强模型与检测模型一体化,端到端,彼此互补,彼此受益,根据检测网络反馈的信息来增强图像,根据增强的图像来更好的训练检测网络。相比于以往的两阶段的图像增强模型或者其他端到端的方法,本发明提出的一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强模型取得了更好的性能。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孙艳丰 , 王国健 , 胡永利 et al. 一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强方法 : CN202211289828.4[P]. | 2022-10-20 .
MLA 孙艳丰 et al. "一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强方法" : CN202211289828.4. | 2022-10-20 .
APA 孙艳丰 , 王国健 , 胡永利 , 尹宝才 . 一种应用于弱光条件下端到端目标检测的即插即用的弱光图像增强方法 : CN202211289828.4. | 2022-10-20 .
导入链接 NoteExpress RIS BibTex
基于多层注意力的视觉定位方法 incoPat
专利 | 2022-11-25 | CN202211492369.X
摘要&关键词 引用

摘要 :

本发明公开了基于多层注意力的视觉定位方法,该方法基于三个模块实现:1)属性注意模块:提取目标对象的细粒度的属性信息;2)上下文注意模块:提取目标对象的周围环境信息;3)匹配模块:结合上两个模块提取到的视觉信息与文本信息匹配找到目标对象。根据文本指导编码与文本语义信息一致的视觉信息来与文本更好的匹配,其包括局部注意力与全局注意力,局部注意力通过跨模态交互提取目标对象细粒度的属性信息;全局注意力通过建立文本为指导的图卷积模型抽取目标对象的上下文信息。两个注意力的结合可以全方位的抽取不同角度的视觉信息,来与文本信息更好的匹配。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孙艳丰 , 张云茹 , 胡永利 et al. 基于多层注意力的视觉定位方法 : CN202211492369.X[P]. | 2022-11-25 .
MLA 孙艳丰 et al. "基于多层注意力的视觉定位方法" : CN202211492369.X. | 2022-11-25 .
APA 孙艳丰 , 张云茹 , 胡永利 , 姜华杰 , 尹宝才 . 基于多层注意力的视觉定位方法 : CN202211492369.X. | 2022-11-25 .
导入链接 NoteExpress RIS BibTex
每页显示 10| 20| 50 条结果
< 页,共 27 >

导出

数据:

选中

格式:
在线人数/总访问数:170/4743632
地址:北京工业大学图书馆(北京市朝阳区平乐园100号 邮编:100124) 联系我们:010-67392185
版权所有:北京工业大学图书馆 站点建设与维护:北京爱琴海乐之技术有限公司