从 Basic Block 到 Control Flow Graph
Info
注意:三地址码是 Basic Block(BB)的基础,而 Basic Block 是 Control Flow Graph(CFG) 的基础,因此在阅读本文之前,你最好了解一下三地址码,可以参考我写好的上一篇博客
三地址码(3AC/TAC)是什么
信息
进一步阅读
GraphRAG 工作流
Motivation
当前的 RAG 技术无法回答关于语料库的全局性问题,比如“这个数据集的主题是什么”。这一类问题不是可以通过检索增强技术解决的,因为答案一般不在某一段文本里面,正确答案需要理解整个语料库并给出抽象的总结,作者称这类问题为 query-focused summarization (QFS) 问题1。普通的 RAG 技术无法很好处理这个问题。
论文阅读: Outrageously Large Neural Networks-The Sparsely-Gated Mixture-of-Experts Layer
Motivations
模型能力跟模型参数量有关系,模型参数量越多,数据越多,效果就越好。但训练成本也成倍上升。为了解决这个问题,大家提出了很多种条件计算(Conditional Computations)的方案,顾名思义,某些条件满足的情况下才会计算,这样就可以不增加训练成本的同时增加模型参数量,提升模型效果
作者提出了 Sparsely-Gated Mixture-of-Experts Layer (MoE) 架构,如下所示1