• Complex
  • Title
  • Keyword
  • Abstract
  • Scholars
  • Journal
  • ISSN
  • Conference
搜索
High Impact Results & Cited Count Trend for Year Keyword Cloud and Partner Relationship

Query:

学者姓名:胡永利

Refining:

Source

Submit Unfold

Co-Author

Submit Unfold

Clean All

Sort by:
Default
  • Default
  • Title
  • Year
  • WOS Cited Count
  • Impact factor
  • Ascending
  • Descending
< Page ,Total 27 >
Context-aware relation enhancement and similarity reasoning for image-text retrieval SCIE
期刊论文 | 2024 , 18 (5) , 652-665 | IET COMPUTER VISION
Abstract&Keyword Cite

Abstract :

Image-text retrieval is a fundamental yet challenging task, which aims to bridge a semantic gap between heterogeneous data to achieve precise measurements of semantic similarity. The technique of fine-grained alignment between cross-modal features plays a key role in various successful methods that have been proposed. Nevertheless, existing methods cannot effectively utilise intra-modal information to enhance feature representation and lack powerful similarity reasoning to get a precise similarity score. Intending to tackle these issues, a context-aware Relation Enhancement and Similarity Reasoning model, called RESR, is proposed, which conducts both intra-modal relation enhancement and inter-modal similarity reasoning while considering the global-context information. For intra-modal relation enhancement, a novel context-aware graph convolutional network is introduced to enhance local feature representations by utilising relation and global-context information. For inter-modal similarity reasoning, local and global similarity features are exploited by the bidirectional alignment of image and text, and the similarity reasoning is implemented among multi-granularity similarity features. Finally, refined local and global similarity features are adaptively fused to get a precise similarity score. The experimental results show that our effective model outperforms some state-of-the-art approaches, achieving average improvements of 2.5% and 6.3% in R@sum on the Flickr30K and MS-COCO dataset. A novel context-aware relation enhancement and similarity reasoning model is proposed to achieve precise image-text retrieval, which conducts both intra-modal relation enhancement and inter-modal similarity reasoning while considering the global-context information. image

Keyword :

image retrieval image retrieval multimedia systems multimedia systems

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 Cui, Zheng , Hu, Yongli , Sun, Yanfeng et al. Context-aware relation enhancement and similarity reasoning for image-text retrieval [J]. | IET COMPUTER VISION , 2024 , 18 (5) : 652-665 .
MLA Cui, Zheng et al. "Context-aware relation enhancement and similarity reasoning for image-text retrieval" . | IET COMPUTER VISION 18 . 5 (2024) : 652-665 .
APA Cui, Zheng , Hu, Yongli , Sun, Yanfeng , Yin, Baocai . Context-aware relation enhancement and similarity reasoning for image-text retrieval . | IET COMPUTER VISION , 2024 , 18 (5) , 652-665 .
Export to NoteExpress RIS BibTex
基于弱化低质量负样本的时序知识图谱补全方法 incoPat
专利 | 2023-03-20 | CN202310266322.X
Abstract&Keyword Cite

Abstract :

本发明公开了基于弱化低质量负样本的时序知识图谱补全方法,为了平衡负样本多样性和负样本质量,该方法使用高质量和中等质量的负样本以增强模型判别能力,即弱化低质量负样本产生的影响。该方法提出的低质量负样本选择和弱化模块可以挑选出低质量负样本并调节它们的分数以弱化低质量负样本的消极影响。在交叉熵损失中引入了自适应加权负样本损失正则化项,该正则化项计算了每个负样本的损失值,并自适应地为每个负样本损失值分配不同的权重,以充分利用不同质量负样本的潜在信息。自适应加权负样本损失正则化项与低质量负样本选择和弱化模块都起到了积极影响。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 王博岳 , 胡思敏 , 王家普 et al. 基于弱化低质量负样本的时序知识图谱补全方法 : CN202310266322.X[P]. | 2023-03-20 .
MLA 王博岳 et al. "基于弱化低质量负样本的时序知识图谱补全方法" : CN202310266322.X. | 2023-03-20 .
APA 王博岳 , 胡思敏 , 王家普 , 赵岚 , 胡永利 . 基于弱化低质量负样本的时序知识图谱补全方法 : CN202310266322.X. | 2023-03-20 .
Export to NoteExpress RIS BibTex
基于层次多粒度交互图卷积网络的长文档分类方法及装置 incoPat
专利 | 2023-03-24 | CN202310316635.1
Abstract&Keyword Cite

Abstract :

基于层次多粒度交互图卷积网络的长文档分类方法及装置,在控制模型计算复杂度的情况下,能够构建网络以刻画长文档完备的层次结构化信息,以及进行图间信息交互。方法包括:(1)获得长文档层次化多粒度表示;(2)执行多层层次叠加的段落图卷积、句子图卷积和单词图卷积,以及相应的图间交互;(3)为了融合不同粒度不同尺度的语义信息,使用最大池化分别聚合段落图的终层输出,以及句子图和单词图每一层的输出。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 胡永利 , 刘腾飞 , 孙艳丰 et al. 基于层次多粒度交互图卷积网络的长文档分类方法及装置 : CN202310316635.1[P]. | 2023-03-24 .
MLA 胡永利 et al. "基于层次多粒度交互图卷积网络的长文档分类方法及装置" : CN202310316635.1. | 2023-03-24 .
APA 胡永利 , 刘腾飞 , 孙艳丰 , 尹宝才 . 基于层次多粒度交互图卷积网络的长文档分类方法及装置 : CN202310316635.1. | 2023-03-24 .
Export to NoteExpress RIS BibTex
基于跨模态多粒度交互融合的长文档分类方法及装置 incoPat
专利 | 2023-03-24 | CN202310301100.7
Abstract&Keyword Cite

Abstract :

基于跨模态多粒度交互融合的长文档分类方法及装置,能够有效弥补现有方法对视觉信息的忽视,通过引入特征偏移网络在不同粒度实现跨模态的交互和融合,控制计算复杂度,达到分类准确率和分类效率的平衡。方法包括:(1)输入一个长文档中对应的文本序列,以及对应的单张或多张图片;(2)分别通过预训练编码器BERT和VGG‑16提取对应模态的多粒度特征表示;(3)使用多模态协同池化模块,在视觉信息和文本信息的协同引导下池化细粒度文本特征;(4)使用跨模态特征偏移网络,分别在4个不同的粒度组合下实现跨模态特征的交互和融合;(5)使用特征聚合网络实现多空间特征的融合,并获得最终的长文档分类结果。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 胡永利 , 刘腾飞 , 孙艳丰 et al. 基于跨模态多粒度交互融合的长文档分类方法及装置 : CN202310301100.7[P]. | 2023-03-24 .
MLA 胡永利 et al. "基于跨模态多粒度交互融合的长文档分类方法及装置" : CN202310301100.7. | 2023-03-24 .
APA 胡永利 , 刘腾飞 , 孙艳丰 , 尹宝才 . 基于跨模态多粒度交互融合的长文档分类方法及装置 : CN202310301100.7. | 2023-03-24 .
Export to NoteExpress RIS BibTex
一种面向引文数据聚类的多图卷积聚类方法 incoPat
专利 | 2023-03-01 | CN202310183587.3
Abstract&Keyword Cite

Abstract :

本发明公开了一种面向引文数据聚类的多图卷积聚类方法,构造蕴含原始数据底层结构信息的K最近邻图,为了提取原始数据的底层结构信息,对每一个样本数据,将计算样本数据与不同样本数据之间的余弦相似度。基于构建K最近邻图,获取到原始数据的底层结构信息,用自编码模块增强的数据表证,引入更多已经构建的关系图;经过多图卷积模块,得到了经过不同图卷积操作的特征表示。受到自注意力机制的启发,寻求在每一个节点之间学习相对应的自适应权重。通过融合各个视图的信息来获得丰富的判别信息,同时使得聚类效果得到提升。本发明通过利用多图数据,降低了对单图质量的依赖性,与现有的图卷积聚类方法相比,模型更具鲁棒性。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 王博岳 , 王一凡 , 贺霞霞 et al. 一种面向引文数据聚类的多图卷积聚类方法 : CN202310183587.3[P]. | 2023-03-01 .
MLA 王博岳 et al. "一种面向引文数据聚类的多图卷积聚类方法" : CN202310183587.3. | 2023-03-01 .
APA 王博岳 , 王一凡 , 贺霞霞 , 刘洋 , 胡永利 . 一种面向引文数据聚类的多图卷积聚类方法 : CN202310183587.3. | 2023-03-01 .
Export to NoteExpress RIS BibTex
一种基于多阶段模态表示的情感预测方法 incoPat
专利 | 2023-03-07 | CN202310209523.6
Abstract&Keyword Cite

Abstract :

本发明公开了一种基于多阶段模态表示的情感预测方法,分为编码阶段、模态互补阶段和预测阶段;本方法在特征表示学习阶段,改进了多模态输入之间的互信息,以过滤掉与任务无关的模态特定随机噪声,在所有模态中保留尽可能多的模态不变内容。其次,在特征融合阶段,训练鉴别器区分这些融合表示来自哪些模态,并保持模态彼此独立。在预测阶段,对融合后的不同特征之间的距离进行约束,并将它们投影到不同的特征空间。本发明所提出的网络模型取得了更好的性能;同时也做了相关的消融实验,最终实验证明,本发明所提出的基于多阶段模态表示的情感预测方法能使得多模态情感预测任务达到最优值。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 尹宝才 , 李旭浩 , 胡永利 . 一种基于多阶段模态表示的情感预测方法 : CN202310209523.6[P]. | 2023-03-07 .
MLA 尹宝才 et al. "一种基于多阶段模态表示的情感预测方法" : CN202310209523.6. | 2023-03-07 .
APA 尹宝才 , 李旭浩 , 胡永利 . 一种基于多阶段模态表示的情感预测方法 : CN202310209523.6. | 2023-03-07 .
Export to NoteExpress RIS BibTex
Robust discriminant analysis with feature selective projection and between-classes structural incoherence SCIE
期刊论文 | 2023 , 134 | DIGITAL SIGNAL PROCESSING
WoS CC Cited Count: 2
Abstract&Keyword Cite

Abstract :

Our paper proposes a new feature extraction method, named as robust discriminant analysis (RDA), for data classification tasks. Based on linear discriminant analysis (LDA), RDA integrates the feature selection and feature extraction into a unified framework. The transformation matrix with l2,1-norm constraint is introduced to map original data feature into a discriminative low-dimensional subspace, in which the l2,1 sparsity regularizer can endow the feature selection with better interpretability. And, we use two different matrices (i.e., transformation matrix P and reconstruction matrix Q) for better data reconstruction, which can provide more freedom to ensure that the learned data representation holds the main variance and hence improve robustness to noises. To ensure that the learned features are optimal for classification, the structurally incoherent learning is introduced to add additional discriminant ability by minimizing the correlation of different classes. In other hand, the between-classes structural incoherence term is also equivalent to cosine distance metric, which is robust to noises and outliers. An efficient optimization algorithm is designed to solve the proposed optimization model. Extensive experiments conducted on all kinds of benchmark databases confirm the superiority of the proposed method.(c) 2022 Elsevier Inc. All rights reserved.

Keyword :

Robust data reconstruction Robust data reconstruction Feature selection Feature selection Feature extraction Feature extraction Structural incoherence Structural incoherence Linear discriminant analysis Linear discriminant analysis

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 Guo, Jipeng , Sun, Yanfeng , Gao, Junbin et al. Robust discriminant analysis with feature selective projection and between-classes structural incoherence [J]. | DIGITAL SIGNAL PROCESSING , 2023 , 134 .
MLA Guo, Jipeng et al. "Robust discriminant analysis with feature selective projection and between-classes structural incoherence" . | DIGITAL SIGNAL PROCESSING 134 (2023) .
APA Guo, Jipeng , Sun, Yanfeng , Gao, Junbin , Hu, Yongli , Yin, Baocai . Robust discriminant analysis with feature selective projection and between-classes structural incoherence . | DIGITAL SIGNAL PROCESSING , 2023 , 134 .
Export to NoteExpress RIS BibTex
基于多层注意力的视觉定位方法 incoPat
专利 | 2022-11-25 | CN202211492369.X
Abstract&Keyword Cite

Abstract :

本发明公开了基于多层注意力的视觉定位方法,该方法基于三个模块实现:1)属性注意模块:提取目标对象的细粒度的属性信息;2)上下文注意模块:提取目标对象的周围环境信息;3)匹配模块:结合上两个模块提取到的视觉信息与文本信息匹配找到目标对象。根据文本指导编码与文本语义信息一致的视觉信息来与文本更好的匹配,其包括局部注意力与全局注意力,局部注意力通过跨模态交互提取目标对象细粒度的属性信息;全局注意力通过建立文本为指导的图卷积模型抽取目标对象的上下文信息。两个注意力的结合可以全方位的抽取不同角度的视觉信息,来与文本信息更好的匹配。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 孙艳丰 , 张云茹 , 胡永利 et al. 基于多层注意力的视觉定位方法 : CN202211492369.X[P]. | 2022-11-25 .
MLA 孙艳丰 et al. "基于多层注意力的视觉定位方法" : CN202211492369.X. | 2022-11-25 .
APA 孙艳丰 , 张云茹 , 胡永利 , 姜华杰 , 尹宝才 . 基于多层注意力的视觉定位方法 : CN202211492369.X. | 2022-11-25 .
Export to NoteExpress RIS BibTex
基于虚拟状态嵌入的知识图谱补全方法及装置 incoPat
专利 | 2022-10-12 | CN202211249317.X
Abstract&Keyword Cite

Abstract :

基于虚拟状态嵌入的知识图谱补全方法及装置,引入虚拟状态嵌入作为实体和关系间的过渡,以减少实体和关系之间巨大的语义差距,从而提高链接预测性能。为了实现上述过程,本发明提出了差分聚合模块,该模块通过双信息对偶传播的方式对实体、关系和虚拟状态嵌入进行交互,以动态地传递它们之间的信息,因此能够减少实体和关系间的巨大语义差距,达到信息交互的目的。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 王家普 , 王博岳 , 胡永利 et al. 基于虚拟状态嵌入的知识图谱补全方法及装置 : CN202211249317.X[P]. | 2022-10-12 .
MLA 王家普 et al. "基于虚拟状态嵌入的知识图谱补全方法及装置" : CN202211249317.X. | 2022-10-12 .
APA 王家普 , 王博岳 , 胡永利 , 贺霞霞 , 孙忠凡 , 尹宝才 . 基于虚拟状态嵌入的知识图谱补全方法及装置 : CN202211249317.X. | 2022-10-12 .
Export to NoteExpress RIS BibTex
一种基于多流3D卷积神经网络的多视角手语识别方法 incoPat
专利 | 2022-10-22 | CN202211297694.0
Abstract&Keyword Cite

Abstract :

本发明公开了一种基于多流3D卷积神经网络的多视角手语识别方法,该方法基于多流3D卷积神经网络以处理多视角手语识别,使用3D卷积神经网络提取手语数据的时空特征;基于多流卷积神经网络结构达到同时输入多视角手语数据进行训练;通过多视角融合模块来融合网络每个流的识别结果,从而充分利用不同视角手语数据的互补信息,使得多视角手语识别更准确。

Cite:

Copy from the list or Export to your reference management。

GB/T 7714 尹宝才 , 赵宏智 , 关忠 et al. 一种基于多流3D卷积神经网络的多视角手语识别方法 : CN202211297694.0[P]. | 2022-10-22 .
MLA 尹宝才 et al. "一种基于多流3D卷积神经网络的多视角手语识别方法" : CN202211297694.0. | 2022-10-22 .
APA 尹宝才 , 赵宏智 , 关忠 , 胡永利 . 一种基于多流3D卷积神经网络的多视角手语识别方法 : CN202211297694.0. | 2022-10-22 .
Export to NoteExpress RIS BibTex
10| 20| 50 per page
< Page ,Total 27 >

Export

Results:

Selected

to

Format:
Online/Total:219/5898293
Address:BJUT Library(100 Pingleyuan,Chaoyang District,Beijing 100124, China Post Code:100124) Contact Us:010-67392185
Copyright:BJUT Library Technical Support:Beijing Aegean Software Co., Ltd.