针对现有服务推荐方法中高阶服务特征提取不够充分的问题,提出基于超图卷积神经网络的多行为感知服务推荐方法(MBSRHGNN). 该方法根据服务交互类型和服务组合信息构建多重超图,基于谱分解理论和多重超图的功能结构特性以设计双通道超图卷积网络. 利用切比雪夫多项式近似超图卷积核来降低计算复杂度;在超图卷积过程中,结合多行为推荐方法和自注意力机制度量多行为交互之间的重要性差异,提出HG-DiffPool超图池化方法来降低特征维度;通过融合服务嵌入向量和超图信号,学习不同服务的推荐概率分布;爬取真实服务数据,构造不同稀疏度的数据集进行实验. 实验结果表明,所提的MBSRHGNN服务推荐方法能够适应数据高度稀疏的推荐场景,并且在推荐精确度和相关性上的表现优于现有基线方法.
针对现有的动态知识图谱推理方法容易忽略动态知识图谱中存在着大量静态信息和重复历史事实的问题,提出结合静态事实和重复历史事实的动态知识图谱网络方法. 该方法利用动态知识图谱中实体间隐藏的静态联系来构成静态事实,并协助动态知识图谱推理;利用历史事实构建历史词表,在预测未来时对历史词表进行查询;对历史中未发生的事实进行惩罚,提高重复历史事实的预测概率. 在2个公开的数据集上进行动态知识图谱推理实验,对比实验时选用目前主流的5个模型作为基线. 在实体预测实验中,平均倒数排名(MRR)达到0.489 1和0.530 3,Hits@10达到0.588 7和0.616 5,证明了所提方法的有效性.
针对无人机目标跟踪过程中经常出现角度变化、形变、相似物体干扰等问题,提出轻量级注意力聚集无锚框的孪生网络无人机实时目标跟踪算法. 考虑到无人机高空视角跟踪目标较小,在特征模板两分支中引入高效通道注意力机制,能够有效获取目标的语义信息和细节信息. 在融合两层响应的基础上,引入空间注意力机制,能够有效地聚合注意力特征,同时扩大模型的视野范围. 引入无锚框机制,针对每个像素进行分类和预测回归目标框,减少了模型复杂度,大大降低了计算量. 在UAV123@10fps、UAV20L和DTB70等无人机跟踪数据集上与多个当前比较流行的算法进行对比实验,结果表明,所提算法在3个无人机数据集上的平均跟踪速度达到155.2 帧/s,在多种复杂环境下,均能实现对目标的有效跟踪.
为了提升情感识别的准确率,从情绪视频引起的脑电(EEG)和功能近红外(fNIRS)数据中提取每个通道的信号之间的联系,并提出基于模态注意力多路图卷积神经网络(MA-MP-GF)的特征融合情感识别方法. 将EEG和fNIRS数据构建为图结构数据,通过多路图卷积分别对每种模态的信号进行特征提取;利用模态注意力图卷积层融合不同模态通道间的连接信息. 模态注意力机制可以赋予不同模态节点不同权重,使得图卷积层能够更加充分提取不同模态节点间连接关系. 对采集的30个被试的4类情感数据进行实验测试,与仅EEG和仅fNIRS单模态识别结果相比,所提出的图卷积融合方法能够获得更高的识别准确率,分别提升了8.06%、22.90%;与当前常用的EEG-fNIRS融合方法相比,所提出的图卷积融合方法的平均识别准确率提升了2.76%~7.36%;图卷积融合方法在加入模态注意力后识别率最高提升了1.68%.
为了提高机器学习模型的精确度,提出基于数据分布拟合、生成式对抗神经网络和图像超分辨率重建的图像数据增强方法. 该方法将最大似然估计和采样算法生成的符合原始数据分布的二维噪声用于对抗训练,克服了在生成模型中传统图像噪声输入随意的问题;采用逐层训练方式生成高分辨率图像,改进高分辨率图像映射困难、参数冗余的缺点. 以轴承滚子表面灰度图像数据增强为例,验证所提方法的有效性. 研究结果表明,所提方法生成的图像质量更优,相比传统方法生成的图像峰值信噪比提高13.07%,结构相似性提高32.40%,弗雷歇初始距离降低37.58%,且数据增强后的模型平均精确度提升7.89%.
针对目标活动、光线及摄像头距离等问题,提出一种基于门控特征融合与中心损失的目标识别方法. 门控特征融合是为了弥补单一特征信息丢失时,身份识别准确率下降的缺陷. 门控结构指导网络对输入的人脸、行人特征进行贡献量评估, 再根据贡献量去分配权值,组合产生识别性更强的身份特征. 通过添加中心损失函数,在引导网络下减少了特征的类内距离,使得特征更具判别性. 实验结果表明,在自建数据集上所提方法的最终识别准确率最高可以达到76.35%,优于单特征识别方法以及多种融合方法,使用所提的融合损失函数后,平均识别准确率可提高2.63%.
针对密集人群计数中人头尺度变化大、复杂背景干扰的问题,提出基于自注意力机制的双分支密集人群计数算法. 该算法结合卷积神经网络(CNN)和Transformer 2种网络框架,通过多尺度CNN分支和基于卷积增强自注意力模块的Transformer分支,分别获取人群局部信息和全局信息. 设计双分支注意力融合模块,以具备连续尺度的人群特征提取能力;通过基于混合注意力模块的Transformer网络提取深度特征,进一步区分复杂背景并聚焦人群区域. 采用位置级-全监督方式和计数级-弱监督方式,在ShanghaiTech Part A、ShanghaiTech Part B、UCF-QNRF、JHU-Crowd++等数据集上进行实验. 结果表明,算法在4个数据集上的性能均优于最近研究,全监督算法在上述数据集的平均绝对误差和均方根误差分别为55.3、6.7、82.9、55.7和93.1、9.8、145.1、248.0,可以实现高密集、高遮挡场景下的准确计数. 特别是在弱监督算法对比中,以低参数量实现了更佳的计数精度,并达到全监督87.9%的计数效果.
针对物流企业因配送资源的有限、无法及时应对客户的多样化需求和道路状况的不断变化等难题,建立时变道路状况和时间窗关联的无人车配送路径优化数学模型。通过云模型将客户划分为3个等级,以车辆配送成本、未满足客户配送时间的惩罚成本、车辆充电成本的总和极小化作为优化目标函数. 在遗传算法的基础上,结合模拟退火算法构造混合算法,对模型进行求解并验证正确性. 根据模型的特性构造9组不同规模和类型的算例进行数值实验,并验证算法的有效性. 实验结果表明,混合遗传-模拟退火算法下配送过程中产生的总配送成本最多能够节省42.81%,整体客户满意度最高提升80.23%,提出混合遗传-模拟退火算法能够在有效降低成本的基础上,最大程度提升客户的满意度,并且相较于2种传统算法,其优化效果更好.
针对当前规模的小目标行人数据集较少,传统行人检测模型对小目标检测效果较差的问题,提出一种基于消隐点性质,提出自适应增殖数据增强和全局上下文特征融合的小目标行人检测方法. 利用射影几何与消隐点的性质,对图像中的多个目标进行复制;通过仿射变换投影到新的位置,生成多个大小与背景合理的小目标样本以完成数据增强. 利用跨阶段局部网络与轻量化操作改进沙漏结构,融合坐标注意力机制强化骨干网络. 设计全局特征融合颈部网络(GFF-neck),以融合全局特征. 实验表明,在经过数据增强后的WiderPerson数据集上,改进算法对行人类别的检测AP值达到了79.6%,在VOC数据集上mAP值达到了80.2%. 测试结果表明,当搭建实验测试系统进行实景测试时,所提算法有效提升了小目标行人检测识别精度,并满足实时性要求.
为了解决大多数全卷积网络出现的特征提取单一、遥感图像变化检测(CD)能力差的问题,借助Unet++网络构建用于遥感图像CD的深度监督网络(DSNet). 设计多尺度残差模块替换传统卷积层,通过融合孪生网络双分支上的空间与光谱特性,获取遥感图像在不同层次间的语义信息,有效解决了特征提取单一的问题. 在模型解码端设计横向输出层,实现节点从低级向高级特征聚合的深度监督过程. 将具备信息差异化的不同特征融合结果传输至基于归一化的注意力模块(NAM)中. 在不引入额外参数的前提下增强了变化区域的信息权重. 实验结果表明,所提模型在遥感图像CD任务中的召回率和精度分别为90.39%和92.04%,模型的参数量和计算量为6.38 M和60 G. 与不同网络模型的对比表明,该方法具有检测精度高、速度快和轻量化等优点.
针对胸部X光影像中的灰雾现象、病变区域重叠等问题,提出可形变Transformer辅助的胸部X光影像疾病诊断模型. 将扩展后的ResNet50作为特征提取网络,添加压缩型双注意力模块,增强病变区域与非病变区域之间的特征差异,降低冗余信息的干扰,提高图像数据的特征提取效果;通过可形变Transformer解码器内部的交叉注意力模块,引入类别表征作为先验知识,引导影像特征进一步融合,提高不同疾病在影像区域重叠情况下的特征区分度;将解码器的输出传入分类器中以获得最终的诊断结果. 压缩型双注意力模块和可形变Transformer均起到降低模型计算复杂度的作用,引入非对称损失函数可以更好地解决正负样本不均衡. 利用所提模型在公开数据集ChestX-Ray14和CheXpert上进行多组实验,在2个数据集上的受试者操作的特征曲线下面积值(AUC)分别达到0.839 8和0.906 1,表明该模型在胸部X光影像的疾病诊断方面具有正确性和有效性.