Motivation
语言模型解决 2 种问题
- 用一个特征向量表示句子前缀
- 使用该特征向量预测下一个 token
本文提出的 $k\texttt{NN-LM}$ 基于这么一个假设:学习特征向量表示比预测下一个 token,因此本文的方法主要基于该假设进行设计
显然,从定义来看,KNN 算法并不需要训练
=
左侧是类型(Type),右侧是值(Value)
In-Context RALM1 是用于 Autoregressive LM 上的 RAG 技术。RAG 说白了就是在模型推理的时候有个 Retriever 检索相关的文档,检索到的文档会和本来的输入拼接在一起
在 In-Context Learning 里面,会把一些例子放在用户输入的前面,再给 LLM。因此不难想象 In-Context RALM 也类似:In-Context RALM 就是将检索到的最相关的文档直接拼在模型输入的前面,优势是不需要再训练 LLM,我用 mermaid 画了一个图,如下所示