多头注意力是什么

上一篇文章里面我们已经讲完了 Self Attention|自注意力,这里我们在自注意力的基础上多增加一点东西:加上多头注意力(Multi-Head Attention,MHA)。这个其实才是本来 Transformer 的自注意力的完全版本1。因为大部分内容在前文已经讲完,本篇不会太长~

GraphRAG 工作流

当前的 RAG 技术无法回答关于语料库的全局性问题,比如“这个数据集的主题是什么”。这一类问题不是可以通过检索增强技术解决的,因为答案一般不在某一段文本里面,正确答案需要理解整个语料库并给出抽象的总结,作者称这类问题为 query-focused summarization (QFS) 问题1。普通的 RAG 技术无法很好处理这个问题。