面向敦煌壁画的移动视觉搜索模型研究
面向敦煌壁画的移动视觉搜索模型研究

面向敦煌壁画的移动视觉搜索模型研究


标题: 面向敦煌壁画的移动视觉搜索模型研究


作者: 曾子明,孙守强


第一作者: 曾子明


机构: 武汉大学信息资源研究中心,武汉大学信息管理学院


期刊: 情报资料工作


发表日期: 2021-03-25


论文摘要: [目的/意义]保护敦煌文化遗产,为敦煌壁画提供移动视觉搜索服务,以助用户高效、便捷地获取敦煌壁画丰富知识资源。[方法/过程]构建基于BoW的图像底层特征匹配和基于主题标签的高层语义关联的移动视觉搜索模型,用SIFT提取图像局部特征,K-means生成有K个视觉单词组成的视觉词典,计算图像映射到视觉词典的TF-IDF向量,通过内积计算相似度匹配图像并排序;根据图像主题添加语义标签,提取最匹配图像的标签实现语义关联搜索;最后收集1200张敦煌壁画图片验证模型的有效性。[结果/结论]在视觉单词数为1000时BoW+SIFT的图像搜索耗时163ms,且图像大小在0.5-2.5倍范围的准确率在83.7%以上,可有效搜索主题语义关联图像。


知网阅读链接: 点击跳转






提示:本站使用最低限度cookies来确保基础功能实现。 View more
同意
拒绝