• 综合
  • 标题
  • 关键词
  • 摘要
  • 学者
  • 期刊-刊名
  • 期刊-ISSN
  • 会议名称
搜索

作者:

尹宝才 (尹宝才.) (学者:尹宝才) | 王家普 (王家普.) | 胡永利 (胡永利.) (学者:胡永利) | 孙艳丰 (孙艳丰.) (学者:孙艳丰) | 王博岳 (王博岳.)

收录:

incoPat

摘要:

本发明公开了基于动态注意力的超网络融合视觉问答答案准确性的方法,先提取图像中两两物体之间的关系特征。通过进行关系特征的向量表示和问题文本的向量表示的余弦相似度的操作来动态的选取和问题文本相关的关系特征,并将余弦相似度分数排在前三的关系特征被选取为最为相关的关系特征;为了使视觉图片和问题文本中提取的特征融合的更加充分,提用基于超网络的卷积融合方式。利用融合图像‑问题特征学习多分类的分类器,以正确预测最佳匹配答案。使特征融合更加充分,能够使两模态之间进行深层次的交互,进一步促进视觉问答技术的准确性能的提升。

关键词:

通讯作者信息:

电子邮件地址:

查看成果更多字段

相关关键词:

相关文章:

专利基本信息 :

专利类型: 发明申请

申请(专利)号: CN202110182159.X

申请日期: 2021-02-09

公开(公告)日: 2021-05-18

公开(公告)号: CN112818889A

申请(专利权): 北京工业大学

法律状态: 实质审查

被引次数:

WoS核心集被引频次:

SCOPUS被引频次:

ESI高被引论文在榜: 0 展开所有

万方被引频次:

中文被引频次:

近30日浏览量: 1

在线人数/总访问数:316/4917141
地址:北京工业大学图书馆(北京市朝阳区平乐园100号 邮编:100124) 联系我们:010-67392185
版权所有:北京工业大学图书馆 站点建设与维护:北京爱琴海乐之技术有限公司