Skip to content

Victor94-king/NLP__ManVictor

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

14 Commits
 
 
 
 
 
 
 
 

Repository files navigation

自然语言处理

本人简介: 曼彻斯特大学研究生,目前就职于北京某车企,专注于AI包括不限于NLP & CV技术,助力工业落地项目, 有合作或者比赛联系可以联系[email protected]

本人C站主页 : 曼城周杰伦-CSDN博客

本项目主要是日常的有关于NLP基础的介绍 & 原理 & 面经 & 经验 & 框架 & 应用 , 欢迎补充。

序号 类别 项目名称 简介 地址
1 原理 N-gram 每个词出现的概率只取决于前面n - 1个单词的
2 原理 word2vec 词向量 jmlr.csail.mit.edu/papers/volume3/bengio03a/bengio03a.pdf
3 原理 NPLM 神经概率语言模型 bengio03a.dvi (mit.edu)
4 原理 seq2seq 端到端的神经网络 Sequence to Sequence Learning with Neural Networks (arxiv.org)
5 原理 attention 注意力机制 Attention Is All You Need (arxiv.org)
6 模型架构 Transformer 变形金刚,大模型基础结构 Attention Is All You Need (arxiv.org)
7 模型架构 GPT GPT-3 GPT-3: Its Nature, Scope, Limits, and Consequences
8 模型架构 chatGPT 如何让GPT - 》 chatGPT Training language models to follow instructions with human feedback (arxiv.org)
9 训练框架 DeepSpeed 微软推出的提供了一站式的快速以及大规模的训练及推理框架,目前使用最广泛的训练框架 microsoft/DeepSpeed: DeepSpeed is a deep learning optimization library that makes distributed training and inference easy, efficient, and effective. (github.com)
10 应用 Openai openai接口 ChatGPT
11 模型架构 BERT 自编码器-唯一的架构,初期使用最广泛的语言模型 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (arxiv.org)
12 微调 Lora 目前广泛使用的微调技术,通过冻结模型而训练增加adapter,从而达到微调适配下游任务的目的 LoRA: Low-Rank Adaptation of Large Language Models (arxiv.org)
13 微调 Ptuning_V1 利用在下游任务中前置添加若干个可更新参数的虚拟[tokens] 所构成的模板prompt 再输入到文本中 GPT Understands, Too (arxiv.org)
13 微调 Ptuning_V2 在V1的基础上,通过构造训练一个少量参数的prompt-encoder(lstm+mlp) 构建无真实语义信息的 virtual token P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks (arxiv.org)
14 推理框架 Xinference 性能强大且功能全面的分布式推理框架 xorbitsai/inference: Replace OpenAI GPT with another LLM in your app by changing a single line of code. Xinference gives you the freedom to use any LLM you need. With Xinference, you're empowered to run inference with any open-source language models, speech recognition models, and multimodal models, whether in the cloud, on-premises, or even on your laptop. (github.com)
15 RAG naive-RAG 检索召回技术, 目前最主流减少大模型幻觉的落地技术 Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks (arxiv.org)
16 RAG advanced-RAG 增强的检索召回技术思路
17 RAG RAGAS RAG性能评估框架 explodinggradients/ragas: Supercharge Your LLM Application Evaluations 🚀 (github.com)
1w 微调 QLora 量化版的Lora微调技术 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs (github.com)
19 微调 Lora & QLora lora & QLora 微调技巧 lightning.ai/pages/community/tutorial/lora-llm/
20 RAG框架 Dify 工业主流RAG & agent 框架部署指南 langgenius/dify: Dify is an open-source LLM app development platform. Dify's intuitive interface combines AI workflow, RAG pipeline, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production. (github.com)
21 模型架构 LLama1 META公司推出的SOTA 开源大模型 https://arxiv.org/pdf/2302.13971.pdf
22 模型架构 LLama2 META公司推出的SOTA 开源大模型 2302.13971 (arxiv.org)
23 模型架构 Mistral 7B Mistral AI公司推出的第一个基座大模型 2401.04088 (arxiv.org)
24 原理 layerNorm 为什么在NLP领域中普遍用LayerNorm 而不是BatchNorm
25 微调 SFT-trick 微调技术的一些小技巧
26 模型架构 Mistral 8x7B 第一个知名的MOE架构的大模型 2401.04088 (arxiv.org)
27 微调 Parameter TrainingArguments参数设置
28 模型架构 LLama3 META公司推出的SOTA 开源大模型 meta-llama/llama3: The official Meta Llama 3 GitHub site
29 应用 gpt 一些好用的gpt套壳网站
30 微调 trainer transformer.Trainer参数设置
31 RAG advanced-RAG 优化的检索召回技术思路
32 RAG HippoRAG HippoRAG结合了大型语言模型(LLMs)、知识图谱和个性化PageRank算法 HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models
33 RAG FILCORAG 过滤内容增强的RAG技术 Learning to Filter Context for Retrieval-Augmented Generation (arxiv.org)
34 微调 lora VS finetuning 到底是应该选择Lora还是选择全量微调? LoRA Learns Less and Forgets Less
35 评测 MTEB embedding模型性能评测榜单 MTEB: Massive Text Embedding Benchmark (arxiv.org)](https://arxiv.org/abs/2210.07316)
36 RAG HyKGERAG 北大结合知识图谱的意料RAG HyKGE: A Hypothesis Knowledge Graph Enhanced Framework for Accurate and Reliable Medical LLMs Responses
37 RAG RAFT 该技术通过结合相关文档的检索和模型的微调,从而提升模型在特定领域内的推理能力 RAFT: Adapting Language Model to Domain Specific RAG (arxiv.org)
38 模型架构 Timsfm 专为时间序列预测设计的解码器通用大基础模型 A decoder-only foundation model for time-series forecasting (arxiv.org)
39 评测 CEval 全面评估中文环境下基础模型能力的解决方案 2305.08322
40 prompt工程 prompt 如何与大模型交流--prompt工程 Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4
41 原理 parameter 解读大模型的参数
42 RAG ClashEval 但当检索到的内容存在错误或有害信息时,模型会优先同意召回的信息而不是大模型本身信息 ClashEval: Quantifying the tug-of-war between an LLM's internal prior and external evidence
43 RAG VisualRAG 视觉+RAGpipeline
45 RAG GraphRAG 微软开源的知识图谱+ RAG microsoft/graphrag: A modular graph-based Retrieval-Augmented Generation (RAG) system
46 RAG GraphRAG GraphRAG快速入门 microsoft/graphrag: A modular graph-based Retrieval-Augmented Generation (RAG) system
47 微调 prompt-tuning prompt tuing & instruction tuning & chain-of-though三者区别
48 微调 DDP 分布式训练
49 面经 Lora面经 Lora面经
50 模型架构 OLMoE 第一个开源MOE大模型 2409.02060
51 面经 langchain面经 langchain面经
52 RAG longCite 助力大模型找到长文本引用 THUDM/LongCite: LongCite: Enabling LLMs to Generate Fine-grained Citations in Long-context QA
53 推理框架 Ollama 大模型部署框架 ollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models.
54 训练框架 Llama-factory 一站式中文训练模型框架 hiyouga/LLaMA-Factory: Unified Efficient Fine-Tuning of 100+ LLMs (ACL 2024)
55 RAG框架 FastGPT FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力 labring/FastGPT: FastGPT is a knowledge-based platform built on the LLMs, offers a comprehensive suite of out-of-the-box capabilities such as data processing, RAG retrieval, and visual AI workflow orchestration, letting you easily develop and deploy complex question-answering systems without the need for extensive setup or configuration.
56 面经 RAG RAG面经
57 原理 RoPE 旋转位置编码原理详解
58 原理 LLM 从0->1构建自己的大模型 如何从头训练大语言模型: A simple technical report - 知乎
59 评测 evaluate LLM评估指南如何从头训练大语言模型: A simple technical report - 知乎
60 RAG text2vec 如何选择chunksize 和splitter HuixiangDou/README_zh.md at main · InternLM/HuixiangDou
61 RAG embedding 微调embedding
62 RAG KAG KAG 旨在充分利用知识图谱和向量检索的优势,并通过四个方面双向增强大型语言模型和知识图谱,以解决 RAG 挑战 OpenSPG/KAG: KAG is a knowledge-enhanced generation framework based on OpenSPG engine, which is used to build knowledge-enhanced rigorous decision-making and information retrieval knowledge services
63 模型架构 Qwen2 阿里千问Qwen2系列 QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud.
64 模型架构 Qwen2代码 Qwen2代码解析
65 文档解析 MinerU 免费精准解析PDF文档的开源解决方案
66 prompt工程 prompt prompt 工程合辑
67 prompt工程 Promptim LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增LangChain推出自动化提示优化工具Promptim:一键优化,效率倍增 hinthornw/promptimizer: Prompt optimization scratch
68 prompt工程 De_Ai 一键去除Ai味
69 推理框架 vllm 大模型集群分部署部署框架
70 Langchain Langchain_Summary Langchain的长文本总结处理方式 vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs
71 RAG Table_RAG 表格RAG的处理方式command 'office.markdown.switch' not found
72 RAG LazyGraphRAG 微软重磅推出高性价比下一代GraphRAG
73 RAG Advanced_RAG 十种提升RAG效果的方法
74 RAG Graph_RAG 深度解读GraphRAG(转载)
75 RAG PDF 利用LLM从非结构化PDF中提取结构化知识
76 面经 RoPE 手写一下正弦编码和旋转位置编码的代码
77 面经 ScallingLaw scalling law = 幂律?
78 RAG RAG GraphRAG、Naive RAG框架总结主流框架推荐(共23个):LightRAG、nano-GraphRAG、Dify等GraphRAG、Naive RAG框架总结主流框架推荐(共23个):LightRAG、nano-GraphRAG、Dify等
79 RAG AdvancedRAG RAG落地解决方案
80 RAG RAG_Chunk RAG分块策略
81 RAG GraphRAG_Milvus 利用Milvus向量数据库,实现GraphRAG:主流方法(递归、jina-seg)+前沿推荐(Meta-chunking、Late chunking、SLM-SFT)
82 面经 GPU 如何估算大模型显存
83 prompt工程 Prompt_template Prompt格式的重要性
84 RAG Markdown Markdown文档如何切分
85 MultiModal Qwen2VL Qwen2VL 多模态模型实践
86 面经 Deepspeed_ZeRO Deepspeed_ZeRO各阶段配置
87 RAG MarkitDown 微软开源MarkitDown,RAG文档解析就这么解决了~
88 Function_Calling Function_Calling_1 如何生成Function Calling微调数据?
89 Function_Calling Function_Calling_2 如何提升Function Calling准确性
90 RAG Jina_splitter 使用Jina API进行语义切分 MasteringRAG/split/03_jina_segment_api.ipynb at main · Steven-Luo/MasteringRAG
91 训练框架 Accelerate 训练加速框架之Acclerate
92 Agent ChatBI ChatBI实践分享
93 推理框架 Paramter 文本生成策略(beam search/top-k/top-p/温度系数)
94 训练框架 PPO PPO与GRPO 通俗讲解
95 推理框架 QVcache 为什么只有KV cache 没有Q cache
96 RAG ChatBot AI 智能客服机器人解决方案
97 训练框架 Distillation 大模型蒸馏技术详解
98 RAG框架 Dify_FastGPT Dify外接Fastgpt知识库,这套组合可以说封神了!【喂饭级教程】
99 RAG框架 Dify_RagFlow dify v1.0.1外挂ragflow知识库,确实可以封神了!【喂饭级教程】
100 面经 Words 大模型领域常用名词解释(近100个)
101 模型架构 DeepSeek 免费使用DeepSeek平台
102 模型架构 DeepSeeK_DeCoT 如何去掉DeepSeek R1的思考过程
103 推理框架 DeepSeek_Prefill 私有化部署DeepSeek等大模型的性能估计
104 推理框架 DeepSeek_DeCoT 生产环境vLLM 部署 DeepSeek,如何调优,看这里
105 RAG DeepSeek_RAG 不要盲目再使用DeepSeek R1和QWQ这些推理模型做RAG了
106 RAG Chunk RAG常见13种分块策略大总结(一览表)
107 RAG RAG_2025 2025年值得关注的21个RAG开源项目
108 原理 GGUF 大模型使用Safetensors不好吗?为什么还有GGUF
109 训练框架 DeepSeek_finetuning 单卡4090微调DeepSeek-R1-32B
110 RAG Dify_Parents Dify 分段模式中的父子模式
111
Todo RAG Open Parse 提取PDF文档文字、表格混排自动识别 Filimoa/open-parse: Improved file parsing for LLM’s (github.com)

About

CSDN of ManVictor

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published