大模型微调范式
- Pre-training (成本约模型参数的4倍)
- 全量训练,无标注数据
- Fine-tuning(成本约模型参数的4倍)
- 全量训练,标注数据
- Parameter efficient tuning (成本与部署成本相近)
- Adapter:加入adapter层训练,会引入额外的推理开销;
- Prompt/Prefix tuning:效果更优,需要调参;
- Lora:依靠权重的低秩分解特点,没有额外推理开销
大模型 + 本地知识库
-
LangChain
-
Text Splitter
-
Embedding
-
语义相似度:在nlp领域里,一般使用cosine相似度作为语义相似度的度量,评估两个向量在语义空间上的分布状况
cosine(v, w) = \frac{v\;\cdot\;w}{\abs{v}\abs{w}} = \frac{\sum\limits_{i=1}^Nv_iw_i}{\sqrt{\sum\limits_{i=1}^Nv_i^2}\sqrt{\sum\limits_{i=1}^Nw_i^2}}
-
word2vec
-
-
效果优化方向:模型微调(llm和embedding)专业词汇识别、文档加工(在文本分段后,对每段分别进行总结,基于总结内容语义进行匹配)、借助不同的模型能力(在text2sql、text2cpyher场景下需要产生代码时,可借助不同的模型能力)