分享
知识图谱 Top15 被引盘点
输入“/”快速插入内容
知识图谱 Top15 被引盘点
飞书用户2749
2024年11月30日修改
本文精选了
EMNLP 2024 论文集
中与知识图谱相关的、被引量最高的15篇论文*。后续我们还会继续陆续发布不同领域的 EMNLP 2024 高引盘点,在机智流公众号后台对话框回复“
盘点
”,加入顶会论文盘点交流群。
*注:引用数据来自谷歌学术,数据统计截止 2024 年 11 月 13 日
1.
C-ICL: 用于信息抽取的对比式上下文学习(10次被引)
2.
抽取、定义、规范化:基于大语言模型的知识图谱构建框架(8次被引)
3.
DALK: 回答基于科学文献的阿尔茨海默症问题背景下,大语言模型与知识图谱的动态联合增强(8次被引)
4.
知识图谱增强的大语言模型编辑(7次被引)
5.
InfuserKI: 通过知识图谱和 Infuser 引导的知识整合以增强大语言模型(4次被引)
6.
通过知识图谱提升检索增强型大语言模型的规划能力(4次被引)
7.
TRACE the Evidence: 面向检索增强生成的知识驱动型推理链构建方法(4次被引)
8.
合理推理即正确:用于可验证常识型知识图谱问答的大语言模型(3次被引)
9.
面向知识增强零样本问答的以证据为中心的事实摘要(3次被引)
10.
基于图的生成:同时将大型语言模型作为智能体和知识图谱处理不完整的知识图谱问答(3次被引)
11.
以使用为中心的电商意图理解方法(2次被引)
12.
上下文的重要性:利用图结构化知识上下文推动开放式回答生成的边界(2次被引)
13.
FactGenius: 结合零样本提示和模糊关系挖掘提升基于知识图谱的事实验证(2次被引)
14.
历史文本中的对比式实体共指解析和消歧(1次被引)
15.
利用语言模型提取结构化实体(1次被引)
C-ICL:用于信息抽取的对比式上下文学习(C-ICL: Contrastive In-context Learning for Information Extraction)
https://aclanthology.org/2024.findings-emnlp.590.pdf
([2])
论文指出,在信息提取(IE)领域利用大型语言模型(LLMs)进行小样本信息提取时,研究人员大多仅使用正确示例演示,忽视了错误示例的潜在价值。本文提出一种新的小样本技术 c-ICL,通过构建正确与错误样本创建上下文学习演示,利用正样本及其背后推理过程的提示提高LLMs实体和关系提取能力,还能识别和纠正潜在接口错误。该方法利用硬负样本(hard negative samples)和测试最近正邻的固有上下文及有价值信息,基于LLMs进行上下文学习演示。在多个数据集的实验表明,c-ICL 性能优于之前小样本上下文学习方法,在多种相关任务中有显著提升,展现其通用性。
抽取、定义、规范化:基于大语言模型的知识图谱构建框架 (Extract, Define, Canonicalize: An LLM-based Framework for Knowledge Graph Construction)
https://aclanthology.org/2024.emnlp-main.548.pdf
([3])
该论文关注从输入文本自动创建知识图谱(KGC)的方法。大语言模型(LLM)虽已被应用于KGC,但面临在大规模文本应用中的难题,如KG模式需包含在LLM提示中,复杂模式易超LLM上下文窗口长度,且有时缺乏固定预定义模式。为解决这些问题,论文提出提取 - 定义 - 规范化(EDC)三阶段框架,该框架灵活,可应用于有或无预定义目标模式的情况;后一种情况可自动构建模式并自我规范化。此外还引入了检索相关模式元素的训练组件以提升性能。经三个KGC基准测试证明,EDC无需参数调整就能提取高质量三元组且模式规模大于之前的成果。EDC代码可通过
网址(
https://github.com/clear-nus/edc
)
获取。