• Complex
  • Title
  • Keyword
  • Abstract
  • Scholars
  • Journal
  • ISSN
  • Conference
搜索

Author:

尹宝才 (尹宝才.) (Scholars:尹宝才) | 王家普 (王家普.) | 胡永利 (胡永利.) (Scholars:胡永利) | 孙艳丰 (孙艳丰.) (Scholars:孙艳丰) | 王博岳 (王博岳.)

Indexed by:

incoPat

Abstract:

本发明公开了基于动态注意力的超网络融合视觉问答答案准确性的方法,先提取图像中两两物体之间的关系特征。通过进行关系特征的向量表示和问题文本的向量表示的余弦相似度的操作来动态的选取和问题文本相关的关系特征,并将余弦相似度分数排在前三的关系特征被选取为最为相关的关系特征;为了使视觉图片和问题文本中提取的特征融合的更加充分,提用基于超网络的卷积融合方式。利用融合图像‑问题特征学习多分类的分类器,以正确预测最佳匹配答案。使特征融合更加充分,能够使两模态之间进行深层次的交互,进一步促进视觉问答技术的准确性能的提升。

Keyword:

Reprint Author's Address:

Email:

Show more details

Related Keywords:

Related Article:

Patent Info :

Type: 发明申请

Patent No.: CN202110182159.X

Filing Date: 2021-02-09

Publication Date: 2021-05-18

Pub. No.: CN112818889A

Applicants: 北京工业大学

Legal Status: 实质审查

Cited Count:

WoS CC Cited Count:

SCOPUS Cited Count:

ESI Highly Cited Papers on the List: 0 Unfold All

WanFang Cited Count:

Chinese Cited Count:

30 Days PV: 1

Online/Total:849/5324878
Address:BJUT Library(100 Pingleyuan,Chaoyang District,Beijing 100124, China Post Code:100124) Contact Us:010-67392185
Copyright:BJUT Library Technical Support:Beijing Aegean Software Co., Ltd.