• 综合
  • 标题
  • 关键词
  • 摘要
  • 学者
  • 期刊-刊名
  • 期刊-ISSN
  • 会议名称
搜索
高影响力成果及被引频次趋势图 关键词云图及合作者关系图

您的检索:

学者姓名:孔德慧

精炼检索结果:

来源

应用 展开

合作者

应用 展开

清除所有精炼条件

排序方式:
默认
  • 默认
  • 标题
  • 年份
  • WOS被引数
  • 影响因子
  • 正序
  • 倒序
< 页,共 30 >
深度三维重建:方法、数据和挑战(英文)
期刊论文 | 2021 , 22 (05) , 652-673 | Frontiers of Information Technology & Electronic Engineering
摘要&关键词 引用

摘要 :

三维形状重建是计算机视觉、计算机图形学、模式识别和虚拟现实等领域的重要研究课题。现有三维重建方法通常存在两个瓶颈:(1)它们涉及多个人工设计阶段,导致累积误差,且难以自动学习三维形状的语义特征;(2)它们严重依赖图像内容和质量,以及精确校准的摄像机。因此,这些方法的重建精度难以提高。基于深度学习的三维重建方法通过利用深度网络自动学习低质量图像中的三维形状语义特征,克服了这两个瓶颈。然而,这些方法具有多种体系框架,但是至今未有文献对它们作深入分析和比较。本文对基于深度学习的三维重建方法进行全面综述。首先,基于不同深度学习模型框架,将基于深度学习的三维重建方法分为4类:递归神经网络、深自编码器、生...

关键词 :

生成对抗网络 生成对抗网络 循环神经网络 循环神经网络 三维重建 三维重建 深度学习模型 深度学习模型 深度自编码器 深度自编码器 卷积神经网络 卷积神经网络

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 刘彩霞 , 孔德慧 , 王少帆 et al. 深度三维重建:方法、数据和挑战(英文) [J]. | Frontiers of Information Technology & Electronic Engineering , 2021 , 22 (05) : 652-673 .
MLA 刘彩霞 et al. "深度三维重建:方法、数据和挑战(英文)" . | Frontiers of Information Technology & Electronic Engineering 22 . 05 (2021) : 652-673 .
APA 刘彩霞 , 孔德慧 , 王少帆 , 王志勇 , 李敬华 , 尹宝才 . 深度三维重建:方法、数据和挑战(英文) . | Frontiers of Information Technology & Electronic Engineering , 2021 , 22 (05) , 652-673 .
导入链接 NoteExpress RIS BibTex
基于时空上下文模型的RGB-D序列目标跟踪方法 CQVIP
期刊论文 | 2021 , 47 (3) , 224-230 | 孔德慧
摘要&关键词 引用

摘要 :

基于时空上下文模型的RGB-D序列目标跟踪方法

关键词 :

目标跟踪 目标跟踪 时空上下文 时空上下文 计算机视觉 计算机视觉 RGB-D RGB-D 目标动量 目标动量 机器学习 机器学习

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孔德慧 , 荣子豪 , 贾思宇 et al. 基于时空上下文模型的RGB-D序列目标跟踪方法 [J]. | 孔德慧 , 2021 , 47 (3) : 224-230 .
MLA 孔德慧 et al. "基于时空上下文模型的RGB-D序列目标跟踪方法" . | 孔德慧 47 . 3 (2021) : 224-230 .
APA 孔德慧 , 荣子豪 , 贾思宇 , 王少帆 , 尹宝才 , 北京工业大学学报 . 基于时空上下文模型的RGB-D序列目标跟踪方法 . | 孔德慧 , 2021 , 47 (3) , 224-230 .
导入链接 NoteExpress RIS BibTex
基于时空上下文模型的RGB-D序列目标跟踪方法 CSCD
期刊论文 | 2021 , 47 (03) , 224-230 | 北京工业大学学报
摘要&关键词 引用

摘要 :

为了实现更为精确的视频目标跟踪,提出一种以时空上下文模型为基础的RGB-D序列目标跟踪算法.通过引入更新模板的深度信息,该模型精准地区分了输入序列的目标区域与背景区域,实现了深度权值和颜色权值的融合;基于目标序列的深度及目标动量计算,该模型有效地实现了尺度更新与遮挡处理.通过在RGB-D图像序列数据集上的详细实验评估,该时空上下文模型相对于其他先进的同类方法表现出更好的性能.因此,该方法实现了更为精确可靠的视频目标跟踪.

关键词 :

目标跟踪 目标跟踪 机器学习 机器学习 RGB-D RGB-D 目标动量 目标动量 计算机视觉 计算机视觉 时空上下文 时空上下文

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孔德慧 , 荣子豪 , 贾思宇 et al. 基于时空上下文模型的RGB-D序列目标跟踪方法 [J]. | 北京工业大学学报 , 2021 , 47 (03) : 224-230 .
MLA 孔德慧 et al. "基于时空上下文模型的RGB-D序列目标跟踪方法" . | 北京工业大学学报 47 . 03 (2021) : 224-230 .
APA 孔德慧 , 荣子豪 , 贾思宇 , 王少帆 , 尹宝才 . 基于时空上下文模型的RGB-D序列目标跟踪方法 . | 北京工业大学学报 , 2021 , 47 (03) , 224-230 .
导入链接 NoteExpress RIS BibTex
一种无监督领域自适应语义分割方法 incoPat
专利 | 2021-01-08 | CN202110026447.6
摘要&关键词 引用

摘要 :

本发明公开了一种无监督领域自适应语义分割方法,基于源域图像训练神经网络;利用已训练网络计算目标域图像伪标签;利用源域图像和有伪标签的目标域图像重训练网络,进一步提高伪标签准确性,优化网络的泛化能力。本方法通过利用自训练方法,利用已训练网络提取高置信度的目标域伪标签,弥补了目标域缺少监督信息的缺点,与其他方法相比,丰富了目标域数据的信息,提升网络对目标域数据的学习能力;本方法着重考虑了基于类别的域间差异,针对源域和目标域的预测进行类相关性度量,约束两个域的类相关性一致,减小了两个域类级别的域间差异,提高了网络的泛化能力,本发明的性能优于其他无监督领域自适应语义分割方法。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 王立春 , 高宁 , 王少帆 et al. 一种无监督领域自适应语义分割方法 : CN202110026447.6[P]. | 2021-01-08 .
MLA 王立春 et al. "一种无监督领域自适应语义分割方法" : CN202110026447.6. | 2021-01-08 .
APA 王立春 , 高宁 , 王少帆 , 孔德慧 , 李敬华 , 尹宝才 . 一种无监督领域自适应语义分割方法 : CN202110026447.6. | 2021-01-08 .
导入链接 NoteExpress RIS BibTex
一种基于深度学习的多视角立体视觉三维场景重建方法 incoPat
专利 | 2021-01-19 | CN202110072362.1
摘要&关键词 引用

摘要 :

本发明涉及一种基于深度学习的多视角立体视觉三维场景重建方法,现有的基于深度学习的重建方法,通过提取图像最后一层的特征以生成3D代价体,没有很好地利用浅层特征,这将丢失不同尺度的信息。而且,这些方法在深度图细化时,只考虑了参考图像本身对深度细化的效果,忽略了相邻图像的深度对深度图预测的贡献。为了解决上述问题,我们提出了多尺度特征提取与融合网络以及基于帧间相关性的深度图细化网络,来提升场景的预测精度和完整性。与现有的基于深度学习的方法相比,我们的方法能够更好地学习输入图像的上下文特征,重建出目标场景被遮挡和缺失的区域,能够更完整地恢复场景的三维信息,实现高精度的三维场景重建。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孔德慧 , 林瑞 , 王少帆 et al. 一种基于深度学习的多视角立体视觉三维场景重建方法 : CN202110072362.1[P]. | 2021-01-19 .
MLA 孔德慧 et al. "一种基于深度学习的多视角立体视觉三维场景重建方法" : CN202110072362.1. | 2021-01-19 .
APA 孔德慧 , 林瑞 , 王少帆 , 李敬华 , 王立春 . 一种基于深度学习的多视角立体视觉三维场景重建方法 : CN202110072362.1. | 2021-01-19 .
导入链接 NoteExpress RIS BibTex
基于计算机图形学教学实践的理工科课程思政建设研究
期刊论文 | 2021 , (09) , 15-18 | 计算机教育
摘要&关键词 引用

摘要 :

针对理工科课程在教学内容、方式上实施"润物细无声"式课程思政的难度,以计算机图形学为例,提出课程思政建设总体思路,在阐述具体课程思政建设过程及结果的基础上,凝练总体建设原则,给出一般化的理工科课程思政建设策略,为在理工科院校更广泛、更有效地开展课程思政建设提供思路。

关键词 :

内涵与外延 内涵与外延 理工科课程思政建设 理工科课程思政建设 科学方法论 科学方法论 计算机图形学 计算机图形学 课程思政 课程思政

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孔德慧 , 李敬华 , 王立春 et al. 基于计算机图形学教学实践的理工科课程思政建设研究 [J]. | 计算机教育 , 2021 , (09) : 15-18 .
MLA 孔德慧 et al. "基于计算机图形学教学实践的理工科课程思政建设研究" . | 计算机教育 09 (2021) : 15-18 .
APA 孔德慧 , 李敬华 , 王立春 , 张勇 , 孙艳丰 . 基于计算机图形学教学实践的理工科课程思政建设研究 . | 计算机教育 , 2021 , (09) , 15-18 .
导入链接 NoteExpress RIS BibTex
Hardness-Aware Dictionary Learning: Boosting Dictionary for Recognition SCIE
期刊论文 | 2021 , 23 , 2857-2867 | IEEE TRANSACTIONS ON MULTIMEDIA
WoS核心集被引次数: 3
摘要&关键词 引用

摘要 :

Sparse representation is a powerful tool in many visual applications since images can be represented effectively and efficiently with a dictionary. Conventional dictionary learning methods usually treat each training sample equally, which would lead to the degradation of recognition performance when the samples from same category distribute dispersedly. This is because the dictionary focuses more on easy samples (known as highly clustered samples), and those hard samples (known as widely distributed samples) are easily ignored. As a result, the test samples which exhibit high dissimilarities to most of intra-category samples tend to be misclassified. To circumvent this issue, this paper proposes a simple and effective hardness-aware dictionary learning (HADL) method, which considers training samples discriminatively based on the AdaBoost mechanism. Different from learning one optimal dictionary, HADL learns a set of dictionaries and corresponding sub-classifiers jointly in an iterative fashion. In each iteration, HADL learns a dictionary and a sub-classifier, and updates the weights based on the classification errors given by current sub-classifier. Those correctly classified samples are assigned with small weights while those incorrectly classified samples are assigned with large weights. Through the iterated learning procedure, the hard samples are associated with different dictionaries. Finally, HADL combines the learned sub-classifiers linearly to form a strong classifier, which improves the overall recognition accuracy effectively. Experiments on well-known benchmarks show that HADL achieves promising classification results.

关键词 :

AdaBoost AdaBoost Boosting Boosting classification classification Dictionaries Dictionaries dictionary learning dictionary learning Face recognition Face recognition Sparse representation Sparse representation Task analysis Task analysis Training Training Visualization Visualization

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 Wang, Lichun , Li, Shuang , Wang, Shaofan et al. Hardness-Aware Dictionary Learning: Boosting Dictionary for Recognition [J]. | IEEE TRANSACTIONS ON MULTIMEDIA , 2021 , 23 : 2857-2867 .
MLA Wang, Lichun et al. "Hardness-Aware Dictionary Learning: Boosting Dictionary for Recognition" . | IEEE TRANSACTIONS ON MULTIMEDIA 23 (2021) : 2857-2867 .
APA Wang, Lichun , Li, Shuang , Wang, Shaofan , Kong, Dehui , Yin, Baocai . Hardness-Aware Dictionary Learning: Boosting Dictionary for Recognition . | IEEE TRANSACTIONS ON MULTIMEDIA , 2021 , 23 , 2857-2867 .
导入链接 NoteExpress RIS BibTex
基于出租车OD数据的非常态居民出行模式挖掘方法 incoPat
专利 | 2021-01-28 | CN202110120448.7
摘要&关键词 引用

摘要 :

基于出租车OD数据的非常态居民出行模式挖掘方法属于智能交通和数据挖掘领域。为了能够更好的挖掘出租车乘客出行规律,同时更深入的挖掘居民出行中存在的非常态模式,本发明提出了一种基于高维度稀疏张量分解的方法,即通过组织包括时间、经纬度、功能区属性等多维度信息为张量模型,对其进行低秩稀疏分解。为此,需要解决的关键技术问题包括:对研究区域划分功能区并把对应数据归到相应功能区内;组织时间、经纬度、功能区属性等对应数据构成张量模型;对张量模型做低秩稀疏分解,分别提取低秩模型和稀疏模型并做Tucker分解;对分解得到的基底矩阵做可视化,直观的展现乘客出行模式。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 王立春 , 张彬 , 王少帆 et al. 基于出租车OD数据的非常态居民出行模式挖掘方法 : CN202110120448.7[P]. | 2021-01-28 .
MLA 王立春 et al. "基于出租车OD数据的非常态居民出行模式挖掘方法" : CN202110120448.7. | 2021-01-28 .
APA 王立春 , 张彬 , 王少帆 , 孔德慧 , 尹宝才 . 基于出租车OD数据的非常态居民出行模式挖掘方法 : CN202110120448.7. | 2021-01-28 .
导入链接 NoteExpress RIS BibTex
一种基于三阶段模型的短时交通流预测方法 incoPat
专利 | 2021-02-04 | CN202110153458.0
摘要&关键词 引用

摘要 :

一种基于三阶段模型的短时交通流预测方法属于智能交通系统领域,本发明提出了VMD‑GCN‑GRU模型,实现对交通数据的短时预测。与现有的短时交通流预测方法相比,通过对路网交通数据进行变分模态分解(Var i at i ona lMode Decompos it i on,VMD), 可以削弱大部分噪声,有效降低原始信号的非平稳性,分解得到多组本征模态函数(I ntr i ns i c Mode Funct i on,I MF)和残差,把分解后的具有相似中心频率的I MF和残差依次输入GCN与GRU模型中进行预测,将得到的预测结果进行重构,从而得到最终的预测结果。实验表明,基于VMD‑GCN‑GRU模型的预测精度相比于其它深度学习预测方法有了较大的提升。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 孔德慧 , 邱鹏飞 , 王少帆 et al. 一种基于三阶段模型的短时交通流预测方法 : CN202110153458.0[P]. | 2021-02-04 .
MLA 孔德慧 et al. "一种基于三阶段模型的短时交通流预测方法" : CN202110153458.0. | 2021-02-04 .
APA 孔德慧 , 邱鹏飞 , 王少帆 , 尹宝才 . 一种基于三阶段模型的短时交通流预测方法 : CN202110153458.0. | 2021-02-04 .
导入链接 NoteExpress RIS BibTex
一类基于张量自回归滑动平均模型的视频分类方法 incoPat
专利 | 2021-01-08 | CN202110028634.8
摘要&关键词 引用

摘要 :

本发明涉及一类基于张量自回归滑动平均模型的视频分类方法,用于解决传统的视频数据处理方法不能充分利用视频数据中潜在的结构信息,造成视频数据内部的时域信息丢失,同时数据向量化造成的维度灾难等问题。首先,将视频序列表示为张量型数据,同时引入经典的时间序列表示方法‑自回归滑动平均模型。然后,应用张量分解得到观测矩阵和潜在的低维度的核张量的转移矩阵,该核张量是原始视频序列张量的一种有意义的、独一无二的表示。将观测矩阵和转移矩阵构建视频序列张量所对应的视觉矩阵序列,其可以映射为流形中的一个点。在对视频进行分类时,可以通过度量每个视频数据的视觉矩阵序列在流形中的相似性距离,进而对视频序列进行分类。

引用:

复制并粘贴一种已设定好的引用格式,或利用其中一个链接导入到文献管理软件中。

GB/T 7714 王少帆 , 邬玉洁 , 孔德慧 et al. 一类基于张量自回归滑动平均模型的视频分类方法 : CN202110028634.8[P]. | 2021-01-08 .
MLA 王少帆 et al. "一类基于张量自回归滑动平均模型的视频分类方法" : CN202110028634.8. | 2021-01-08 .
APA 王少帆 , 邬玉洁 , 孔德慧 , 尹宝才 . 一类基于张量自回归滑动平均模型的视频分类方法 : CN202110028634.8. | 2021-01-08 .
导入链接 NoteExpress RIS BibTex
每页显示 10| 20| 50 条结果
< 页,共 30 >

导出

数据:

选中

格式:
在线人数/总访问数:68/3600924
地址:北京工业大学图书馆(北京市朝阳区平乐园100号 邮编:100124) 联系我们:010-67392185
版权所有:北京工业大学图书馆 站点建设与维护:北京爱琴海乐之技术有限公司