会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Dechin的博客
研究兴趣: 分子动力学模拟、量子计算与量子算法、Python编程与深度学习
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
19
下一页
2025年2月27日
Cython与CUDA之Gather
摘要:
本文使用了Cython作为封装函数,封装一个CUDA C实现的Gather算子,然后通过Python去调用,用这种方法实现一个比较Pythonic的CUDA Gather函数的实现和调用。
阅读全文
posted @ 2025-02-27 10:20 DECHIN
阅读(201)
评论(0)
推荐(1)
2025年2月25日
CUDA异常捕获
摘要:
本文主要介绍了在CUDA编程的实践中,增加一个异常捕获的宏模块,以保障CUDA项目结果的准确性。主要代码内容参考了樊哲勇所著的《CUDA编程基础与实践》,是一本很好的CUDA编程入门书籍。
阅读全文
posted @ 2025-02-25 15:55 DECHIN
阅读(331)
评论(0)
推荐(0)
2025年2月24日
bin格式转safetensors
摘要:
本文介绍了一种将Hugging Face上bin格式的大模型文件,在线转换为safetensors文件格式,然后下载到本地的方法。
阅读全文
posted @ 2025-02-24 15:40 DECHIN
阅读(653)
评论(0)
推荐(0)
2025年2月21日
DeepSeek本地性能调优
摘要:
对于本地模型的加载来说,除了使用KTransformer等工具进行指令集层面的优化之外,还可以调整模型加载层数,做一个简单的优化。这里提供了一个num_gpu和num_ctx参数调整的策略,实测Tokens性能最大可优化10倍左右。
阅读全文
posted @ 2025-02-21 10:53 DECHIN
阅读(2514)
评论(0)
推荐(0)
2025年2月20日
Ollama模型迁移
摘要:
为了方便本地大模型部署和迁移,本文提供了一个关于Ollama的模型本地迁移的方法。由于直接从Ollama Hub下载下来的模型,或者是比较大的GGUF模型文件,往往会被切分成多个,而文件名在Ollama的路径中又被执行了sha256散列变换。因此我们需要从索引文件中获取相应的文件名,再进行模型本地迁移。
阅读全文
posted @ 2025-02-20 16:34 DECHIN
阅读(2110)
评论(0)
推荐(1)
2025年2月19日
DeepSeek智能编程
摘要:
本文介绍了两种智能编程的方案,一种是使用Cursor结合远程API形式的智能化自动编程,另一种方案是VSCode插件结合本地部署的Ollama模型来进行智能编程。用户可以根据自己的需求来选择一种合适的交互方案,总体来说智能化、自动化的编程已经近在眼前了。
阅读全文
posted @ 2025-02-19 17:45 DECHIN
阅读(2436)
评论(0)
推荐(2)
大模型工具KTransformer的安装
摘要:
本文主要介绍的是国产高性能大模型加载工具KTransformer的安装方法。之所以是使用方法,是因为该工具对本地的硬件条件还是有一定的要求。如果是型号过于老旧的显卡,有可能出现TORCH_USE_CUDA_DSA相关的一个报错。而这个问题只能通过换显卡来解决,所以作者本地并未完全测试成功,只是源码安装方法和Docker安装方法经过确认没有问题。
阅读全文
posted @ 2025-02-19 10:28 DECHIN
阅读(5388)
评论(32)
推荐(1)
2025年2月17日
DeepSeek模型量化
摘要:
这篇文章主要介绍了llama.cpp这一大模型工具的使用。因为已经使用Ollama来run大模型,因此仅介绍了llama.cpp在HF模型转GGUF模型中的应用,及其在大模型量化中的使用。大模型的参数量化技术,使得我们可以在本地有限预算的硬件条件下,也能够运行DeepSeek的蒸馏模型。
阅读全文
posted @ 2025-02-17 14:11 DECHIN
阅读(3096)
评论(2)
推荐(0)
2025年2月14日
DeepSeek+PageAssist实现本地大模型联网
摘要:
这篇文章主要介绍了通过使用PageAssist,来使得本地部署的DeepSeek模型可以联网搜索的方案。
阅读全文
posted @ 2025-02-14 17:02 DECHIN
阅读(4964)
评论(1)
推荐(0)
2025年2月11日
DeepSeek+Zotero
摘要:
这篇文章介绍了一种在Zotero科研文献阅读管理软件中,使用Awesome GPT插件配置Ollama-DeepSeek文本生成模型+BAAI-bgeM3嵌入模型,来解析和理解科研论文的一种方法。借此可以简化一部分繁杂的论文学习过程,也许可以提升科学研究的效率。
阅读全文
posted @ 2025-02-11 14:19 DECHIN
阅读(3691)
评论(0)
推荐(4)
2025年2月8日
DeepSeek部署本地知识库
摘要:
大模型之大,可以训练我们所有人日常生活学习工作可能使用到的所有知识。但是完整的大模型,要实现一个本地化的部署,可能是有点困难,因此才有了大模型的蒸馏技术。蒸馏之后大模型可能会损失大多数的行业知识,而我们可以通过本地知识库构建的方法,在本地构建一个私有的专业大模型。
阅读全文
posted @ 2025-02-08 15:16 DECHIN
阅读(13561)
评论(0)
推荐(7)
2025年2月7日
Windows11本地部署DeepSeek加速
摘要:
本文介绍了一个可以相比之下更快速的在本地部署DeepSeek的方法,除了在上一篇博客中介绍的从Github或者Github加速网站获取Ollama之外,还可以通过从国内的其他大模型文件平台下载模型文件,来加速本地模型的构建。
阅读全文
posted @ 2025-02-07 15:12 DECHIN
阅读(14541)
评论(1)
推荐(7)
2025年2月6日
Ubuntu Linux部署DeepSeek
摘要:
本文介绍了通过Ollama在Ubuntu Linux平台上部署DeepSeek本地大模型的方法,并且可以使用ChatBox调用本地Ollama API进行本地对话或者是远程对话。
阅读全文
posted @ 2025-02-06 10:16 DECHIN
阅读(29842)
评论(10)
推荐(6)
2025年1月23日
使用SpongeExt快捷完成CudaSPONGE结合PySAGES的增强采样
摘要:
基于CudaSPONGE高性能分子动力学模拟采样工具,和PySAGES高性能增强采样软件,我简单的封装了一个SpongeExt插件,可以用于无感结合CudaSPONGE和PySAGES进行增强采样分子动力学模拟。
阅读全文
posted @ 2025-01-23 10:20 DECHIN
阅读(155)
评论(0)
推荐(0)
2025年1月20日
Markdown转Beamer进阶
摘要:
接上一篇介绍的基本Markdown通过pandoc编译转为Beamer风格文档的文章,本文主要介绍一些Markdown转Beamer其中的进阶用法。如Mermaid流程图,和Algorithms算法伪代码的使用等。
阅读全文
posted @ 2025-01-20 17:27 DECHIN
阅读(136)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
19
下一页
公告