论文阅读: In-Context Retrieval-Augmented Language Models

In-Context RALM1 是用于 Autoregressive LM 上的 RAG 技术。RAG 说白了就是在模型推理的时候有个 Retriever 检索相关的文档,检索到的文档会和本来的输入拼接在一起

在 In-Context Learning 里面,会把一些例子放在用户输入的前面,再给 LLM。因此不难想象 In-Context RALM 也类似:In-Context RALM 就是将检索到的最相关的文档直接拼在模型输入的前面,优势是不需要再训练 LLM,我用 mermaid 画了一个图,如下所示

论文阅读: REALM: Retrieval-Augmented Language Model Pre-Training

最近打算系统性学习 RAG 技术,开始看起了相关文献,目前的思路是按照 ACL 2023 Tutorial 的 Roadmap 过一遍。本篇是对早期的 RAG 技术的 REALM 的介绍

Info

本文采用的模型是 Masked LM 的 BERT,还不是 LLM。因此本文后续的部分内容需要你对 BERT 有一定的了解,包括 BERT 的预训练过程、BERT 微调等

使用 OCaml 中的 Polymorphic Variant 类型

我已经学习并使用了 OCaml 有段时间了,但是一直搞不清楚 Polymorphic variant 有什么用。最近在看 Yojson 的时候又看到了这种用法,一番搜索之后发现并没有看到关于 Polymorphic variant 的比较好的文章(官方介绍 在我看来有点难懂),只看到一些相关的回答12。经过仔细学习之后,我决定写一篇文章,希望能对你有所帮助 :)