本人简介: 曼彻斯特大学研究生,目前就职于北京某车企,专注于AI包括不限于NLP & CV技术,助力工业落地项目, 有合作或者比赛联系可以联系[email protected]
本人C站主页 : 曼城周杰伦-CSDN博客
本项目主要是日常的有关于NLP基础的介绍 & 原理 & 面经 & 经验 & 框架 & 应用 , 欢迎补充。
序号 | 类别 | 项目名称 | 简介 | 地址 |
---|---|---|---|---|
1 | 原理 | N-gram | 每个词出现的概率只取决于前面n - 1个单词的 | |
2 | 原理 | word2vec | 词向量 | jmlr.csail.mit.edu/papers/volume3/bengio03a/bengio03a.pdf |
3 | 原理 | NPLM | 神经概率语言模型 | bengio03a.dvi (mit.edu) |
4 | 原理 | seq2seq | 端到端的神经网络 | Sequence to Sequence Learning with Neural Networks (arxiv.org) |
5 | 原理 | attention | 注意力机制 | Attention Is All You Need (arxiv.org) |
6 | 模型架构 | Transformer | 变形金刚,大模型基础结构 | Attention Is All You Need (arxiv.org) |
7 | 模型架构 | GPT | GPT-3 | GPT-3: Its Nature, Scope, Limits, and Consequences |
8 | 模型架构 | chatGPT | 如何让GPT - 》 chatGPT | Training language models to follow instructions with human feedback (arxiv.org) |
9 | 训练框架 | DeepSpeed | 微软推出的提供了一站式的快速以及大规模的训练及推理框架,目前使用最广泛的训练框架 | microsoft/DeepSpeed: DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective. (github.com) |
10 | 应用 | Openai | openai接口 | ChatGPT |
11 | 模型架构 | BERT | 自编码器-唯一的架构,初期使用最广泛的语言模型 | BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (arxiv.org) |
12 | 微调 | Lora | 目前广泛使用的微调技术,通过冻结模型而训练增加adapter,从而达到微调适配下游任务的目的 | LoRA: Low-Rank Adaptation of Large Language Models (arxiv.org) |
13 | 微调 | Ptuning_V1 | 利用在下游任务中前置添加若干个可更新参数的虚拟[tokens] 所构成的模板prompt 再输入到文本中 | GPT Understands, Too (arxiv.org) |
13 | 微调 | Ptuning_V2 | 在V1的基础上,通过构造训练一个少量参数的prompt-encoder(lstm+mlp) 构建无真实语义信息的 virtual token | P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks (arxiv.org) |
14 | 推理框架 | Xinference | 性能强大且功能全面的分布式推理框架 | xorbitsai/inference: Replace OpenAI GPT with another LLM in your app by changing a single line of code. Xinference gives you the freedom to use any LLM you need. With Xinference, you're empowered to run inference with any open-source language models, speech recognition models, and multimodal models, whether in the cloud, on-premises, or even on your laptop. (github.com) |
15 | RAG | naive-RAG | 检索召回技术, 目前最主流减少大模型幻觉的落地技术 | Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks (arxiv.org) |
16 | RAG | advanced-RAG | 增强的检索召回技术思路 | |
17 | RAG | RAGAS | RAG性能评估框架 | explodinggradients/ragas: Supercharge Your LLM Application Evaluations 🚀 (github.com) |
1w | 微调 | QLora | 量化版的Lora微调技术 | artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs (github.com) |
19 | 微调 | Lora & QLora | lora & QLora 微调技巧 | lightning.ai/pages/community/tutorial/lora-llm/ |
20 | RAG框架 | Dify | 工业主流RAG & agent 框架部署指南 | langgenius/dify: Dify is an open-source LLM app development platform. Dify's intuitive interface combines AI workflow, RAG pipeline, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production. (github.com) |
21 | 模型架构 | LLama1 | META公司推出的SOTA 开源大模型 | https://arxiv.org/pdf/2302.13971.pdf |
22 | 模型架构 | LLama2 | META公司推出的SOTA 开源大模型 | 2302.13971 (arxiv.org) |
23 | 模型架构 | Mistral 7B | Mistral AI公司推出的第一个基座大模型 | 2401.04088 (arxiv.org) |
24 | 原理 | layerNorm | 为什么在NLP领域中普遍用LayerNorm 而不是BatchNorm | |
25 | 微调 | SFT-trick | 微调技术的一些小技巧 | |
26 | 模型架构 | Mistral 8x7B | 第一个知名的MOE架构的大模型 | 2401.04088 (arxiv.org) |
27 | 微调 | Parameter | TrainingArguments参数设置 | |
28 | 模型架构 | LLama3 | META公司推出的SOTA 开源大模型 | meta-llama/llama3: The official Meta Llama 3 GitHub site |
29 | 应用 | gpt | 一些好用的gpt套壳网站 | |
30 | 微调 | trainer | transformer.Trainer参数设置 | |
31 | RAG | advanced-RAG | 优化的检索召回技术思路 | |
32 | RAG | HippoRAG | HippoRAG结合了大型语言模型(LLMs)、知识图谱和个性化PageRank算法 | HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models |
33 | RAG | FILCORAG | 过滤内容增强的RAG技术 | Learning to Filter Context for Retrieval-Augmented Generation (arxiv.org) |
34 | 微调 | lora VS finetuning | 到底是应该选择Lora还是选择全量微调? | LoRA Learns Less and Forgets Less |
35 | 评测 | MTEB | embedding模型性能评测榜单 | MTEB: Massive Text Embedding Benchmark (arxiv.org)](https://arxiv.org/abs/2210.07316) |
36 | RAG | HyKGERAG | 北大结合知识图谱的意料RAG | HyKGE: A Hypothesis Knowledge Graph Enhanced Framework for Accurate and Reliable Medical LLMs Responses |
37 | RAG | RAFT | 该技术通过结合相关文档的检索和模型的微调,从而提升模型在特定领域内的推理能力 | RAFT: Adapting Language Model to Domain Specific RAG (arxiv.org) |
38 | 模型架构 | Timsfm | 专为时间序列预测设计的解码器通用大基础模型 | A decoder-only foundation model for time-series forecasting (arxiv.org) |
39 | 评测 | CEval | 全面评估中文环境下基础模型能力的解决方案 | 2305.08322 |
40 | prompt工程 | prompt | 如何与大模型交流--prompt工程 | Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 |
41 | 原理 | parameter | 解读大模型的参数 | |
42 | RAG | ClashEval | 但当检索到的内容存在错误或有害信息时,模型会优先同意召回的信息而不是大模型本身信息 | ClashEval: Quantifying the tug-of-war between an LLM's internal prior and external evidence |
43 | RAG | VisualRAG | 视觉+RAGpipeline | |
45 | RAG | GraphRAG | 微软开源的知识图谱+ RAG | microsoft/graphrag: A modular graph-based Retrieval-Augmented Generation (RAG) system |
46 | RAG | GraphRAG | GraphRAG快速入门 | microsoft/graphrag: A modular graph-based Retrieval-Augmented Generation (RAG) system |
47 | 微调 | prompt-tuning | prompt tuing & instruction tuning & chain-of-though三者区别 | |
48 | 微调 | DDP | 分布式训练 | |
49 | 面经 | Lora面经 | Lora面经 | |
50 | 模型架构 | OLMoE | 第一个开源MOE大模型 | 2409.02060 |
51 | 面经 | langchain面经 | langchain面经 | |
52 | RAG | longCite | 助力大模型找到长文本引用 | THUDM/LongCite: LongCite: Enabling LLMs to Generate Fine-grained Citations in Long-context QA |
53 | 推理框架 | Ollama | 大模型部署框架 | ollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models. |
54 | 训练框架 | Llama-factory | 一站式中文训练模型框架 | hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs (ACL 2024) |
55 | RAG框架 | FastGPT | FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力 | labring/FastGPT: FastGPT is a knowledge-based platform built on the LLMs, offers a comprehensive suite of out-of-the-box capabilities such as data processing, RAG retrieval, and visual AI workflow orchestration, letting you easily develop and deploy complex question-answering systems without the need for extensive setup or configuration. |
56 | 面经 | RAG | RAG面经 | |
57 | 原理 | RoPE | 旋转位置编码原理详解 | |
58 | 原理 | LLM | 从0->1构建自己的大模型 | 如何从头训练大语言模型: A simple technical report - 知乎 |
59 | 评测 | evaluate | LLM评估指南如何从头训练大语言模型: A simple technical report - 知乎 | |
60 | RAG | text2vec | 如何选择chunksize 和splitter | HuixiangDou/README_zh.md at main · InternLM/HuixiangDou |
61 | RAG | embedding | 微调embedding | |
62 | RAG | KAG | KAG 旨在充分利用知识图谱和向量检索的优势,并通过四个方面双向增强大型语言模型和知识图谱,以解决 RAG 挑战 | OpenSPG/KAG: KAG is a knowledge-enhanced generation framework based on OpenSPG engine, which is used to build knowledge-enhanced rigorous decision-making and information retrieval knowledge services |
63 | 模型架构 | Qwen2 | 阿里千问Qwen2系列 | QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud. |
64 | 模型架构 | Qwen2代码 | Qwen2代码解析 | |
65 | 文档解析 | MinerU | 免费精准解析PDF文档的开源解决方案 | |
66 | prompt工程 | prompt | prompt 工程合辑 | |
67 | prompt工程 | Promptim | LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增 | hinthornw/promptimizer: Prompt optimization scratch |
68 | prompt工程 | De_Ai | 一键去除Ai味 | |
69 | 推理框架 | vllm | 大模型集群分部署部署框架 | |
70 | Langchain | Langchain_Summary | Langchain的长文本总结处理方式 | vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs |
71 | RAG | Table_RAG | 表格RAG的处理方式command 'office.markdown.switch' not found | |
72 | RAG | LazyGraphRAG | 微软重磅推出高性价比下一代GraphRAG | |
73 | RAG | Advanced_RAG | 十种提升RAG效果的方法 | |
74 | RAG | Graph_RAG | 深度解读GraphRAG(转载) | |
75 | RAG | 利用LLM从非结构化PDF中提取结构化知识 | ||
76 | 面经 | RoPE | 手写一下正弦编码和旋转位置编码的代码 | |
77 | 面经 | ScallingLaw | scalling law = 幂律? | |
78 | RAG | RAG | GraphRAG、Naive RAG框架总结主流框架推荐(共23个):LightRAG、nano-GraphRAG、Dify等GraphRAG、Naive RAG框架总结主流框架推荐(共23个):LightRAG、nano-GraphRAG、Dify等 | |
79 | RAG | AdvancedRAG | RAG落地解决方案 | |
80 | RAG | RAG_Chunk | RAG分块策略 | |
81 | RAG | GraphRAG_Milvus | 利用Milvus向量数据库,实现GraphRAG:主流方法(递归、jina-seg)+前沿推荐(Meta-chunking、Late chunking、SLM-SFT) | |
82 | 面经 | GPU | 如何估算大模型显存 | |
83 | prompt工程 | Prompt_template | Prompt格式的重要性 | |
84 | RAG | Markdown | Markdown文档如何切分 | |
85 | MultiModal | Qwen2VL | Qwen2VL 多模态模型实践 | |
86 | 面经 | Deepspeed_ZeRO | Deepspeed_ZeRO各阶段配置 | |
87 | RAG | MarkitDown | 微软开源MarkitDown,RAG文档解析就这么解决了~ | |
88 | Function_Calling | Function_Calling_1 | 如何生成Function Calling微调数据? | |
89 | Function_Calling | Function_Calling_2 | 如何提升Function Calling准确性 | |
90 | RAG | Jina_splitter | 使用Jina API进行语义切分 | MasteringRAG/split/03_jina_segment_api.ipynb at main · Steven-Luo/MasteringRAG |
91 | 训练框架 | Accelerate | 训练加速框架之Acclerate | |
92 | Agent | ChatBI | ChatBI实践分享 | |
93 | 推理框架 | Paramter | 文本生成策略(beam search/top-k/top-p/温度系数) | |
94 | 训练框架 | PPO | PPO与GRPO 通俗讲解 | |
95 | 推理框架 | QVcache | 为什么只有KV cache 没有Q cache | |
96 | RAG | ChatBot | AI 智能客服机器人解决方案 | |
97 | 训练框架 | Distillation | 大模型蒸馏技术详解 | |
98 | RAG框架 | Dify_FastGPT | Dify外接Fastgpt知识库,这套组合可以说封神了!【喂饭级教程】 | |
99 | RAG框架 | Dify_RagFlow | dify v1.0.1外挂ragflow知识库,确实可以封神了!【喂饭级教程】 | |
100 | 面经 | Words | 大模型领域常用名词解释(近100个) | |
101 | 模型架构 | DeepSeek | 免费使用DeepSeek平台 | |
102 | 模型架构 | DeepSeeK_DeCoT | 如何去掉DeepSeek R1的思考过程 | |
103 | 推理框架 | DeepSeek_Prefill | 私有化部署DeepSeek等大模型的性能估计 | |
104 | 推理框架 | DeepSeek_DeCoT | 生产环境vLLM 部署 DeepSeek,如何调优,看这里 | |
105 | RAG | DeepSeek_RAG | 不要盲目再使用DeepSeek R1和QWQ这些推理模型做RAG了 | |
106 | RAG | Chunk | RAG常见13种分块策略大总结(一览表) | |
107 | RAG | RAG_2025 | 2025年值得关注的21个RAG开源项目 | |
108 | 原理 | GGUF | 大模型使用Safetensors不好吗?为什么还有GGUF | |
109 | 训练框架 | DeepSeek_finetuning | 单卡4090微调DeepSeek-R1-32B | |
110 | RAG | Dify_Parents | Dify 分段模式中的父子模式 | |
111 | ||||
Todo | RAG | Open Parse | 提取PDF文档文字、表格混排自动识别 | Filimoa/open-parse: Improved file parsing for LLM’s (github.com) |