尾调用与尾调用优化
尾调用 & 尾递归
假设函数 A
调用了函数 B
,我们称函数 A
为 Caller,函数 B
为 Callee。
尾调用(Tail-call)指的是:Caller 最后只需要返回 Callee 这个函数调用的计算结果,其他运算都执行完成了1
假设函数 A
调用了函数 B
,我们称函数 A
为 Caller,函数 B
为 Callee。
尾调用(Tail-call)指的是:Caller 最后只需要返回 Callee 这个函数调用的计算结果,其他运算都执行完成了1
更新说明:
自从 LLM 时代到来之后,如何微调 LLM 成为了一个难题,因为 LLM 的模型实在是太大了,很难做全量微调更新所有参数。可选的路线有:冻结整个模型做 Prompt tuning 或者 In-context Learning;冻结整个模型但是会插入可训练的模块。今天要介绍的 LoRA(Low-Rank Adaptation) 就对应了后者的技术路线,这是微软团队的工作1