AI
文章平均质量分 50
AI使用
mixboot
“种一棵树最好的时间是十年前,其次是现在。”
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Ubuntu 22.04 安装 NVIDIA Container Toolkit
本文介绍了在Ubuntu 22.04系统中安装NVIDIA Container Toolkit的国内源安装方法。首先确认依赖包curl和gnupg2已安装,然后添加USTC镜像源的GPG密钥并配置国内源仓库地址。更新软件包列表后,通过apt-get安装指定版本的NVIDIA Container Toolkit及其相关组件。最后配置Docker运行时环境并重启服务,通过运行nvidia-smi命令验证GPU是否正常工作。整个过程采用国内镜像源,解决了国内用户访问GitHub源速度慢的问题。原创 2026-03-05 13:48:54 · 245 阅读 · 0 评论 -
r.jina.ai 使用指南:一键提取网页核心内容
r.jina.ai 是 Jina AI 提供的免费网页内容提取服务,可快速将复杂网页转换为结构清晰的 Markdown 格式,自动去除广告等干扰元素。使用方法简单:在目标网址前添加"https://r.jina.ai/"即可访问提取后的内容。支持保留标题、列表、代码块等格式,并能提取图片。该服务还提供API调用方式,可配合AI工具进行内容总结分析,适用于快速阅读、AI上下文提供及内容存档等场景。免费版有速率限制,建议合理使用并尊重版权。原创 2026-02-22 21:13:19 · 1127 阅读 · 0 评论 -
Moltbot接入飞书机器人
本文介绍了如何将Moltbot接入飞书机器人。首先通过命令行安装clawdbot-feishu插件并重启服务,然后在飞书开放平台创建自建应用,配置必要的权限和事件。完成审核后,设置机器人的appId、appSecret并启用通道。最后提供了相关参考链接,包括插件GitHub地址和使用教程视频。整个流程详细说明了从安装到配置的全过程,帮助用户快速实现Moltbot与飞书机器人的对接。原创 2026-01-29 13:04:44 · 1557 阅读 · 0 评论 -
clawdbot 云服务器部署
本文介绍了clawdbot的安装配置流程。首先通过nvm安装Node.js环境,然后执行安装脚本。配置网关时需设置运行位置、端口、绑定模式及密码验证。若出现连接报错"pairing required",需使用设备管理命令列出并批准配对请求。最后提供了clawdbot官方文档参考链接。原创 2026-01-28 22:42:37 · 469 阅读 · 0 评论 -
media-downloader 智能媒体下载器
本文介绍了智能媒体下载器media-downloader的安装和使用方法。通过简单命令即可完成安装并配置yt-dlp使用浏览器cookies。安装后可以检查配置状态,并支持下载各类媒体内容,如示例中展示的猫咪图片下载功能。该工具基于GitHub开源项目,提供中文使用说明,方便用户快速获取网络媒体资源。原创 2026-01-27 13:31:35 · 457 阅读 · 0 评论 -
OpenCode 使用 GLM
OpenCode平台提供便捷的安装方式,通过curl命令一键安装。配套的Coding Tool Helper工具可简化MCP服务器管理,使用npx命令即可运行。该工具支持自动配置,无需手动操作。相关文档可在opencode.ai和GLM官方文档中查阅。原创 2026-01-27 12:21:21 · 1073 阅读 · 0 评论 -
MiroFish AI 预测
本文档详细介绍了MiroFish项目的部署流程。主要内容包括:1) 环境要求(Node.js 18+、Python 3.11+等);2) 环境配置步骤(复制.env文件);3) 依赖安装方法(前后端依赖分别安装);4) 服务启动命令;5) Nginx反向代理配置(包含WebSocket支持、超时设置等);6) 前端环境变量配置。文档提供了完整的命令行操作指南,并附有项目GitHub参考链接。所有配置步骤都包含验证命令,确保部署正确性。原创 2026-01-09 15:55:16 · 930 阅读 · 0 评论 -
BettaFish 多Agent舆情分析助手
BettaFish是一个基于Docker的多Agent舆情分析系统,提供舆情监测与分析功能。系统采用容器化部署,包含主应用和PostgreSQL数据库两个服务。配置方法包括:1) 通过脚本安装Docker;2) 使用docker-compose.yml文件定义服务配置;3) 通过.env文件设置数据库参数。系统默认开放5000、8501-8503端口,支持数据持久化存储,可实现快速部署和稳定运行。该方案特别提供了国内镜像源以加速部署,适合舆情分析场景的应用需求。原创 2026-01-08 15:43:52 · 444 阅读 · 0 评论 -
AI 图像生成分辨率配置
本文提供了AI图像生成在不同尺寸需求下的分辨率配置方案,包含四个版本:原始版(150-170万像素)、标准版(80-90万像素)、小号版(40-50万像素)和迷你版(20-30万像素)。每个版本均提供了1:1、16:9、4:3、3:2等常见比例的精确宽高像素值及总像素数,便于用户根据实际应用场景选择合适的分辨率配置。这些预设值可确保图像质量与性能的平衡,满足从高清展示到快速预览的不同需求。原创 2026-01-02 00:44:24 · 799 阅读 · 0 评论 -
Comfy-Org z_image_turbo
本文介绍了Comfy-Org z_image_turbo模型的文件目录结构及下载方法。该模型包含text_encoders、loras、diffusion_models和vae四个子目录,分别存放不同组件文件。文章详细说明了如何通过modelscope下载各组件文件(如qwen_3_4b.safetensors、z_image_turbo_bf16.safetensors等)并移动到正确目录位置。同时还提供了pixel_art风格LoRA文件的下载方式。所有下载命令均使用modelscope工具完成,并附有原创 2025-12-31 00:43:57 · 1752 阅读 · 0 评论 -
VoxCPM 1.5.0 macOS
本文展示了在Python 3.11.13环境下配置和使用语音处理工具voxcpm的过程。系统已安装PyTorch 2.9.0(支持MPS加速)和TorchAudio 2.9.0。操作步骤包括:卸载旧版voxcpm 1.0.5,重新安装最新版本,并通过app.py启动Web服务。服务运行在CPU上,同时下载了1.2.7版本的funasr语音识别模型。最后提供了本地访问地址http://localhost:7860。整个过程演示了语音处理环境的完整配置流程。原创 2025-12-27 22:51:30 · 713 阅读 · 0 评论 -
navicat配置HTTP 远程连接SQLite数据库
摘要:文章描述了在macOS系统中部署ntunnel_sqlite.php脚本时遇到的问题及解决方法。问题原因是脚本第235行错误使用了PHP不存在的nil常量,应改为null。修复后配置了Nginx服务器,监听8081端口,设置PHP处理规则,并禁止访问隐藏文件。最后展示了Nginx的完整配置文件,包含PHP-FPM的socket路径等关键配置项。原创 2025-12-26 23:05:27 · 428 阅读 · 0 评论 -
OpenCV 源码编译并启用 .pc 文件生成
本文介绍了如何在编译OpenCV源码时启用.pc文件生成功能。通过设置-DOPENCV_GENERATE_PKGCONFIG=ON参数,可以让CMake在编译过程中生成pkg-config文件。具体步骤包括:创建构建目录、配置CMake、并行编译和安装。安装后可通过pkg-config命令验证并获取OpenCV的编译和链接参数,方便项目依赖管理。该方法适用于需要使用pkg-config管理OpenCV依赖的开发场景。原创 2025-12-24 14:25:16 · 497 阅读 · 0 评论 -
context7
摘要 本文介绍了如何安装和使用context7服务。主要内容包括: 通过命令行添加context7服务,需指定HTTP传输协议、API地址和API密钥 使用mcp list命令查看已安装服务 提供了context7官方文档参考链接 安装过程简单,只需执行相应命令并配置API密钥即可完成集成。原创 2025-12-06 20:28:51 · 367 阅读 · 0 评论 -
Claude Code 创建 项目 Skills
本文介绍了在Claude Code项目中创建技能目录的方法。主要内容包括:在.claude/skills/目录下创建技能文件,编写SKILL.md开发文档,并提供了官方文档参考链接。摘要简要说明了技能创建的基本流程和文档编写要求,帮助开发者快速了解项目技能开发规范。原创 2025-12-01 00:22:08 · 457 阅读 · 0 评论 -
Visual Studio Code 中使用 Claude Code
本文介绍了在VS Code中配置Claude Code插件的步骤。首先安装插件后,需要在settings.json中设置4个关键环境变量:API端点URL、认证令牌以及主模型和快速响应模型(均设为GLM-4.6)。此外还支持命令行配置MCP功能,包括视觉理解、联网搜索和网页读取等扩展能力。配置完成后即可在VS Code中使用基于GLM-4.6大模型的AI编程辅助功能。原创 2025-11-29 23:27:34 · 9674 阅读 · 0 评论 -
配置 Node.js npm镜像源 安装 Claude Code
本文介绍了如何在Linux系统中安装和配置Node版本管理工具nvm,并设置国内镜像源以加速下载。主要内容包括:1)克隆nvm仓库并配置环境变量;2)设置Node.js和npm的国内镜像源;3)安装最新LTS版Node.js;4)验证配置和测试下载速度;5)全局安装Claude Code工具。通过修改.bashrc文件和配置镜像源,可以显著提升国内用户的下载体验。原创 2025-11-18 15:33:21 · 1002 阅读 · 0 评论 -
AI 生成PPT
AI助手助力高效PPT制作 本文介绍两种AI辅助PPT生成工具:智谱GLM-4.6可自动生成PPT结构Markdown文档,而Kimi PPT助手则能直接生成完整PPT演示文稿。配图展示了AI生成PPT的实际操作界面。这些工具通过自然语言处理技术,帮助用户快速将想法转化为专业演示文稿,大幅提升工作效率。150字原创 2025-11-12 14:30:03 · 526 阅读 · 0 评论 -
MultiTalk
【代码】MultiTalk。原创 2025-11-01 16:07:43 · 447 阅读 · 0 评论 -
n8n部署
本文详细介绍了n8n自动化工具使用Docker的部署流程。主要内容包括:1) 编写docker-compose.yaml配置文件,设置端口映射、环境变量和数据卷;2) 通过Docker命令启动n8n服务;3) 配置Nginx反向代理和基础认证,包括WebSocket支持和超时设置;4) 启用Nginx站点配置并验证配置文件。部署完成后可通过8888端口访问n8n服务,配图展示了部署成功的界面。原创 2025-10-29 11:53:28 · 358 阅读 · 0 评论 -
VoxCPM macOS 安装部署
VoxCPM 语音合成系统部署指南 本文介绍了VoxCPM-0.5B语音合成模型的安装与部署流程。系统支持自动检测CUDA、MPS或CPU设备,并提供以下功能: 通过pip或Git克隆安装VoxCPM 从Hugging Face下载预训练模型 自动设备检测与优化配置(CUDA下启用torch.compile) 集成ASR模型(SenseVoiceSmall)用于语音提示识别 提供TTS语音合成功能 部署时系统会显示详细的设备信息,包括GPU型号、显存大小等,并支持本地模型缓存和Hugging Face仓库自原创 2025-10-28 16:10:05 · 916 阅读 · 0 评论 -
macOS 部署安装 IndexTTS2
本文介绍了IndexTTS2在macOS上的部署安装步骤:1)安装Git和Git-LFS;2)克隆项目仓库;3)安装uv包管理器;4)配置Python依赖;5)通过ModelScope下载模型;6)验证硬件加速支持;7)启动Web界面。关键步骤包括使用Homebrew安装工具、配置国内镜像加速下载,以及确认MPS硬件加速支持。安装完成后可通过本地端口访问Web界面,并可使用asitop监控系统资源。原创 2025-10-28 14:27:34 · 2990 阅读 · 0 评论 -
青龙面板中设置定时任务调用Dify特定工作流
本文介绍了如何在青龙面板中设置定时任务来触发Dify工作流的执行。主要包括:1)通过ql命令添加订阅仓库;2)创建ql_dify_workflow_executor.js脚本文件,该脚本支持通过环境变量配置多个工作流,并通过axios调用Dify API;3)配置工作流环境变量(TOKEN、BASE_URL、INPUTS);4)创建定时任务。脚本支持多个工作流并行管理,提供详细的执行日志和错误处理,可实现Dify工作流的自动化定时执行。原创 2025-10-25 02:52:31 · 502 阅读 · 0 评论 -
dify 配置域名https访问
摘要:该配置展示了Dify平台的Docker环境设置,包括API、Web控制台和文件服务的URL地址(均指向https://123.xyz),以及跨域访问和Nginx服务器配置。Nginx配置文件中定义了不同路径的代理转发规则,监听80和443端口,并启用了SSL证书(dify.crt和dify.key)支持HTTPS协议。配置还包含TLS协议版本和会话缓存设置,确保安全连接。原创 2025-10-16 11:34:27 · 1019 阅读 · 0 评论 -
青龙面板 Dify工作流定时助手
本文介绍了如何在青龙面板中配置Dify工作流定时任务。主要包括:1)通过ql repo命令添加GitHub仓库;2)拉取脚本后的文件位置说明;3)安装NodeJS和axios依赖;4)配置环境变量DIFY_TOKENS和DIFY_BASE_URL;5)修改脚本中的变量名称;6)提供相关参考文档链接。配置完成后,系统会自动添加一个默认工作流。该方案适用于需要定时调用Dify工作流的场景。原创 2025-10-16 11:11:34 · 547 阅读 · 0 评论 -
Dify 相关服务
Dify服务状态与重启方法 Dify相关服务包括Nginx反向代理、Web前端(3000)、API服务(5001)、Worker服务、PostgreSQL(5432)、Redis(6379)等11个容器组件。其中Web服务刚启动,数据库组件状态健康。可通过docker-compose.yaml文件查看具体状态。重启Dify需进入/root/dify/docker目录,先执行docker-compose down停止服务,再运行docker-compose up -d重新启动。 (98字)原创 2025-10-16 09:57:07 · 319 阅读 · 0 评论 -
Nano-Bananary 搭建 使用 nano banana
本文介绍了如何搭建Nano-Bananary项目。首先克隆GitHub仓库并安装依赖,然后配置.env.local文件添加谷歌API密钥。修改vite.config.ts文件设置自定义域名,运行开发服务器后,通过Nginx反向代理访问。附有配置截图和项目参考链接。整个搭建过程简洁明了,适合快速部署使用。原创 2025-09-08 18:42:14 · 406 阅读 · 0 评论 -
Kiro 使用中文回答
摘要:本文介绍了如何通过Kiro的Steering功能设置强制中文回答规则。具体步骤包括创建配置文件并设置语言规则,要求所有回答使用简体中文,技术术语和代码注释需中文化,但允许代码变量名、命令行指令等保持英文。该配置确保了Kiro在各类交互中始终以中文响应,同时保留了必要的技术表达灵活性。原创 2025-08-16 01:09:57 · 6754 阅读 · 0 评论 -
Claude Code 配置 智谱 GLM-4.5
【代码】Claude Code 配置 智谱 GLM-4.5。原创 2025-08-01 10:51:33 · 2136 阅读 · 0 评论 -
修改VSCode远程SSH的PATH
【代码】修改VSCode远程SSH的PATH。原创 2025-07-31 18:32:36 · 405 阅读 · 0 评论 -
npm 设置国内镜像源
【代码】npm 设置国内镜像源。原创 2025-07-31 17:39:24 · 684 阅读 · 0 评论 -
macOS 设置 Claude Code
设置为阿里云百炼API Key。原创 2025-07-30 17:42:46 · 703 阅读 · 0 评论 -
Cline 配置 kimi k2 模型
配置 Anthropic APIAPI Provider 选择AnthropicAnthropic API Key 配置从 Kimi 开放平台获取的 Key勾选: 输入Model 均可,模型默认选择点击Done,保存配置。原创 2025-07-30 16:49:18 · 930 阅读 · 0 评论 -
Cline 配置 qwen3-coder-plus
进入 cline 的配置设置 ‒ 选择“OpenAI Compatible”模式。原创 2025-07-30 16:39:34 · 1489 阅读 · 0 评论 -
macos 魔搭 模型下载 Wan-AI ComfyUI
macos 魔搭 模型下载 Wan-AI原创 2025-04-05 11:55:22 · 794 阅读 · 0 评论 -
通义万相AI生视频—使用指南
通义万相AI生视频原创 2025-03-19 10:50:14 · 1616 阅读 · 0 评论 -
Linux安装ComfyUI
Linux安装ComfyUI原创 2025-03-10 19:54:50 · 2708 阅读 · 0 评论 -
Dify v1.0.0 + Ollama v0.5.13 部署
Dify v1.0.0 + Ollama v0.5.13 部署原创 2025-03-08 11:36:28 · 1234 阅读 · 1 评论 -
github rag
github rag原创 2025-03-06 12:48:14 · 944 阅读 · 0 评论 -
ktransformers DeepSeek-R1 671B HEAD 7a19f3b
ktransformers DeepSeek-R1 671B HEAD 7a19f3b原创 2025-03-06 10:02:41 · 717 阅读 · 0 评论
分享