大模型知识引导的复合多注意力文档级关系抽取方法
竹志超,李建强,齐宏智,赵青,高齐,李思颖,蔡嘉怡,沈金炎

Large model knowledge-guided composite multi-attention method for document-level relation extraction
Zhichao ZHU,Jianqiang LI,Hongzhi QI,Qing ZHAO,Qi GAO,Siying LI,Jiayi CAI,Jinyan SHEN
表 2 不同组件下模型的性能对比结果
Tab.2 Performance comparison results of models with different components
模型消融对象P /%R /%F1 /%
LKCM-1去除复合多注意力框架,采用加和求
平均计算语义特征嵌入
85.73±0.0985.29±0.1585.51±0.10
LKCM-2移除大语言模型,即实体背景知识描述信息由静态领域知识库提供86.81±0.2086.92±0.1286.86±0.15
LKCM87.26±0.1687.69±0.0987.47±0.12