在大语言模型应用落地的过程中,上下文长度一直是困扰开发者的关键瓶颈之一。特别是对于Ollama这样的本地部署方案,默认的2048上下文窗口大小常常无法满足我们处理长文本的需求。本文将深入探讨如何突破Ollama的上下文限制,从默认的2048扩展到32k甚至更高,让你的本地大模型真正发挥出"大"的威力。
文章目录
问题背景:这个2048到底卡住了谁的脖子?
当大模型遇上小水管
在使用ollama做大模型问答时,相信不少朋友都遇到过这样的尴尬场景:当你信心满满地输入一篇万字长文要求总结时,模型突然化身复读机:“抱歉,这个问题超出了我的处理能力”。这种时候请先别怀疑自己的姿势水平,问题很可能出在ollama那个丧心病狂的默认参数设定上!
num_ctx参数的前世今生
这个罪魁祸首