- 博客(109)
- 收藏
- 关注
原创 ima接入code工具
本文探讨了腾讯AI工作台产品ima作为个人知识中枢的价值,通过与Google NotebookLM对比,指出其更适合中文场景的"AI笔记+知识库+检索写作"需求。文章重点介绍了如何通过OpenAPI将ima接入Codex等AI系统,实现知识沉淀与复用。作者分享了获取API凭证、调用核心接口(笔记管理、知识库搜索等)的具体方法,并建议从写作系统入手逐步构建个人知识基础设施。全文强调AI工具的真正价值在于建立可沉淀、可调用的知识系统,而ima正朝着这一方向演进。
2026-03-26 14:18:34
721
原创 中国大陆主流AIGC视频生成模型技术调研表(2026最新)
2026年中国大陆主流AIGC视频生成模型技术调研显示,各大厂商在文生视频、图生视频、动作控制、多模态编辑等七大领域展开竞争。字节跳动、百度、阿里巴巴、腾讯等头部企业推出多款模型,如通义万相Wan 2.6支持14B/5B参数版本,分别需8卡/1卡4090显卡;快手可灵AI 3.0支持4K/30s视频生成但仅提供API服务。开源模型如腾讯混元、智谱CogVideoX支持本地部署,单卡4090可实现8-15路并发。音画同步技术成为新趋势,Vidu、即梦AI等实现毫秒级音画直出。数字人领域,阿里巴巴EMO和昆仑万
2026-02-06 11:36:05
406
原创 contextvars 原理详解
Python 的 contextvars 模块提供了异步调用链中的上下文变量管理机制。它通过全局 ContextVar 对象存储变量,但为每个协程维护独立的上下文映射,实现协程级别的隔离。关键特性包括:1) 协程自动继承父协程上下文;2) 子协程修改不影响父协程;3) 不同协程的上下文互不干扰。与传统全局变量相比,contextvars 解决了并发安全问题和请求间干扰问题,是异步编程中传递上下文的推荐方案。典型应用场景包括分布式追踪、请求ID传递等需要跨协程共享数据的场景。
2026-01-23 17:20:22
667
原创 AIGC 多厂商集成开发指南
本文介绍了Client Layer开发指南,主要包括以下内容: 职责定位:Client Layer作为系统底层通信层,负责封装外部API调用细节、提供统一接口、记录完整日志和处理厂商特定逻辑,但不涉及业务编排、参数校验和数据持久化。 技术栈:采用httpx.AsyncClient进行异步HTTP请求,使用contextvars实现全链路追踪,Pydantic进行数据校验,以及Python logging记录结构化日志。 架构设计: 分层架构:位于Service Layer之下,与外部AIGC服务交互 设计模
2026-01-23 17:17:53
267
原创 一文看懂 进程、线程、协程以及使用场景
本文详细对比了进程、线程和协程的核心概念与特性。进程是操作系统资源分配的基本单位,具有独立内存空间但创建成本高;线程是CPU调度单位,共享进程资源但需要同步机制;协程是用户态轻量级线程,切换成本极低但需协作式调度。文章通过内存模型图示展示了三者的存储结构差异,并分析了各自的适用场景:进程适合CPU密集型任务,线程适合少量IO并发,协程则适合高并发IO处理。最后提供了选择指南,建议根据任务类型和性能需求合理选用这三种并发模型。
2026-01-22 10:32:47
979
原创 AIGC 异步回调系统实现
本文介绍了一套通用的AIGC异步回调系统架构,用于处理视频生成、图片生成等长耗时任务。系统采用分层设计,包含API层、业务层、数据层等模块,支持快速响应、状态管理、回调通知等核心功能。关键组件包括回调统一入口、处理器分发器和处理器基类,通过策略模式实现业务路由。系统支持多种回调格式,提供标准处理流程,包括结果URL提取、文件存储上传和状态更新等操作,实现了任务全生命周期的可观测性和统一管理。
2026-01-21 10:09:34
973
原创 vLLM 完全指南:从原理到实战
vLLM是大模型推理的高性能引擎,专注于高效部署大语言模型,特别适合在线API服务和高并发场景。其核心技术包括PagedAttention(分页式显存管理,解决传统KV Cache的显存浪费问题)和Continuous Batching(连续批处理,大幅提升吞吐量)。vLLM支持张量并行和流水线并行策略,但不支持数据并行,因其更适用于推理场景。相比其他工具,vLLM在推理阶段具有显著优势,能与训练工具链无缝衔接。文章还提供了快速上手指南和实战学习路线,帮助开发者从零掌握vLLM的部署应用。
2026-01-09 17:16:33
97
原创 腾讯云VOD AIGC视频生成工具 回调实现
腾讯云VOD AIGC视频生成工具库提供了两种任务处理模式:轮询(同步)和回调(异步)。该工具包含核心API封装、任务管理和配置读取功能,支持通过环境变量或配置文件设置凭证。轮询模式适合简单脚本测试,会阻塞等待任务完成;回调模式则适用于生产环境,通过HTTP通知异步获取结果。开发者可以自定义业务ID和透传信息,实现任务状态跟踪。工具还提供回调URL配置脚本,便于快速部署。该解决方案支持多种视频生成参数配置,包括模型版本、宽高比等,并能处理临时存储的视频文件。
2026-01-06 11:27:10
1123
原创 Qwen-Image-Edit-2511 全栈部署与推理指南(附录:完整代码)
本指南旨在阐述如何在私有化基础设施中,基于模型构建高可用、可扩展的图像编辑推理服务。该方案采用业界标准的diffusers推理框架,结合中国大陆网络环境下的工程化适配,解决了模型资产管理、异构计算资源调度(GPU/CPU 降级)、显存优化及服务化封装等核心问题。核心价值开箱即用:提供标准化的环境构建与模型加载流程。资源弹性:支持在 GPU 显存受限或被占用场景下,自动/手动降级至 CPU 推理,确保服务可用性。工程规范:遵循生产级目录结构、日志规范与配置管理。
2025-12-26 13:47:50
516
原创 实战记录:8x4090 + 2TB 内存硬刚 Kimi K2 (1T MoE) —— KTransformers 与 LLaMA Factory 异构微调环境搭建全指南
本文记录了在8张RTX 4090显卡和1TB DDR5内存的顶级配置下,搭建Kimi K2(1T参数MoE模型)微调环境的全过程。通过KTransformers异构计算框架实现参数卸载,利用AVX512/AMX加速CPU计算,结合LLaMA Factory微调框架。重点解决了GCC版本冲突、AVX512指令集编译报错、LTO链接失败等复杂技术难题,包括:强制降级GCC到12版本、修复setup.py版本检测bug、补全缺失的Python包结构等。最终通过验证脚本确认环境搭建成功,为超大规模MoE模型的本地微
2025-12-22 11:43:27
1097
1
原创 多进程并发控制限流器实现-aigc模型控制
本文介绍了多进程环境下的并发控制工具设计,重点解决第三方API的并发数限制问题。核心方案是使用multiprocessing模块的共享变量和同步原语,实现跨进程的并发控制。 关键点包括: 采用"停车场"模型设计并发数限制器 使用Value共享计数器和Condition条件变量实现等待/唤醒机制 提供上下文管理器简化使用方式 该工具支持两种使用模式: 手动调用acquire/release 通过with语句自动管理(推荐) 示例代码展示了如何创建限流器并应用于API调用场景,确保多进程环境
2025-12-15 18:01:13
71
原创 一文看懂并发、信号量、多线程实际应用
Python 并发控制原理与应用 本文以 Excel 异步解析接口为例,详细讲解 Python 并发控制的核心原理。文章首先分析了无并发控制可能导致的内存爆炸问题,然后深入介绍了两种关键并发控制机制: 信号量(Semaphore):通过计数器限制同时执行的线程数量,包含 acquire() 和 release() 操作,有效控制资源访问。 线程池(ThreadPoolExecutor):预先创建线程组复用线程资源,通过 max_workers 参数控制并发量,提升性能同时避免资源耗尽。 文章还展示了两层并发
2025-12-09 10:36:04
1106
原创 qiaojin/PubMedQA 数据集 介绍
PubMedQA是一个重要的生物医学问答数据集,由金乔等人于2019年发布。该数据集基于PubMed文献,要求模型根据论文摘要回答科研问题,并提供简短分类(yes/no/maybe)和详细解释。包含三个子集:1,000条人工标注数据(PQA-L)、61,200条未标注数据(PQA-U)和211,300条自动生成数据(PQA-A)。该数据集因其需要定量推理和医学专业性而成为评估医疗大模型的关键基准,可通过Hugging Face快速加载使用。
2025-11-24 10:40:52
843
原创 “LangChain 版化工厂危险行为告警系统”的完整项目
本文提出了一种基于LangChain和Qwen-VL的化工安全告警系统设计方案。核心思路是保持原有视觉链路不变,通过LangChain实现知识库判定和工作流编排,所有组件容器化部署。系统采用分层架构,包含Qwen-VL视觉识别、安全规则知识库、告警推送等模块,通过MQTT接收摄像头数据。重点介绍了规则加载器、Prompt模板和安全规则链的关键实现,以及通过Docker Compose一键部署的方案。系统支持无缝迁移现有知识库和告警逻辑,未来可扩展为Agent架构,并支持动态更新规则库。该方案将AI能力与化工
2025-10-28 22:42:00
98
原创 dify项目智能记账
二、核心数据与技术架构 1. 核心数据来源(2类关键数据) - 用户记账基础数据:存储于MySQL数据库,含3张核心表——- expense (支出表):字段为 id (主键)、 expense_time (支出时间)、 category (品类,如餐饮/房租/交通)、 amount (金额)、 payment_method (支付方式,如微信/支付宝/现金)、 remark (备注);2. 执行SQL语句(查询类SQL直接执行,插入类SQL先校验字段合法性,如“金额需为正数”);‘花费’是否包含收入?
2025-10-20 18:43:42
203
原创 数据分析项目包装
二、核心数据来源(3类关键数据) 1. 实时图像衍生数据:摄像头每2秒抽帧生成的图像元数据(含拍摄时间、区域、人员数量)、Qwen-VL模型输出的行为识别结果(行为类别、置信度、人员坐标),日均产生43.2万条记录;三、核心数据分析模块(4大关键分析) 1. 危险行为发生规律分析(用Python+SQL实现) - 分析逻辑:对历史标注数据按“时间(小时/星期/月份)、区域、人员工龄”进行分组统计,挖掘高频违规特征;- 区域维度:反应釜区(未戴安全帽占比62%)、装卸区(违规吸烟占比38%)为高风险区域;
2025-10-20 16:45:29
215
原创 Java 泛型
这篇Java程序展示了如何使用泛型方法比较三个值并返回最大值。核心是一个声明为public static <T extends Comparable<T>> T maximum(T x, T y, T z)的泛型方法,它要求类型T必须实现Comparable接口,从而保证对象可以比较。方法内部通过compareTo()方法依次比较三个参数,找出最大值。main方法演示了对整数、浮点数和字符串三种不同类型数据的比较,验证了该泛型方法的通用性。这种设计既实现了代码复用,又保证了类型安全,
2025-10-08 22:18:06
762
原创 ERP系统权限控制技术解析
小店ERP系统权限控制技术解析 摘要 小店ERP系统实现了Web端(Vue)和App端(UniApp)的完整权限控制体系。Web端采用Vuex存储权限数据,通过自定义指令v-role和全局方法$hasRole实现权限控制;App端使用uniStorage存储,提供权限组件、工具函数和全局混入等多种方式。系统支持功能权限和数据权限的双重控制,采用数组交集判断算法,支持权限组合(OR关系)和超级管理员特权。两种实现都包含权限常量管理、核心检查逻辑和友好的错误处理机制,满足企业级ERP系统的精细化权限管理需求。
2025-09-30 15:06:37
650
原创 大模型面试题001
Mamba模型核心思想: 基于状态空间模型(SSM)改进,引入选择性机制——输入依赖的权重调整,解决传统SSM无法动态处理关键信息的问题。结合硬件感知算法优化计算效率,在长序列任务(如DNA、语言)上表现优异,平衡性能与计算开销。 一句话总结: Mamba通过选择性SSM实现动态信息处理,硬件优化提升效率,成为Transformer的高效替代方案。
2025-09-13 00:32:17
171
原创 Day 19: 算法基础与面试理论精通 - 从思想理解到策略掌握的完整体系
本文系统梳理了算法基础与面试理论的核心知识体系,主要内容包括: 核心数据结构:深入分析数组/链表、栈/队列、树/图的本质特性、应用场景与面试解题策略 经典算法思想:详解贪心算法、分治算法、回溯算法的设计哲学、适用条件和优化技巧 排序与搜索:对比各类排序算法的性能特点和使用场景,为面试选择最优解提供决策框架 面试方法论:提供系统化的解题思维框架,包括问题识别、策略选择、复杂度分析和优化路径 本文强调算法思想的本质理解而非单纯记忆,帮助读者建立从理论到实践的完整知识体系,特别适合准备技术面试的开发者。通过掌握这
2025-09-09 13:36:21
118
原创 Day 18: 多模态大模型专项 - 理论深度与面试精通之路
📌 多模态大模型专项学习摘要 (148字) 核心内容: 多模态AI本质:融合文本/图像/音频等多模态数据,模拟人类多感官认知,解决单模态局限性(语义歧义、信息不完整)。关键技术挑战包括模态对齐、信息融合和大规模数据处理。 发展里程碑:从早期简单特征融合(2010-2015)到基于Transformer的深度交互(2016-2020),再到CLIP/GPT-4V等大模型时代(2021至今),数据规模、泛化能力显著提升。 经典模型CLIP:采用对比学习构建视觉-语言统一语义空间,通过双编码器架构实现零样本分类
2025-09-09 13:35:30
118
原创 Day 17: 3D点云深度学习专项 - 理论深度与面试精通之路
🎯 理论深度掌握✅ 深入理解点云数据的数学本质:无序性、几何不变性、稀疏性✅ 掌握三大核心挑战:置换不变性、不规则邻域、多尺度特征✅ 理解架构演进逻辑:PointNet → PointNet++ → Point Transformer🛠️ 技术机制精通✅ 置换不变性的对称函数理论和工程实现✅ 层次化特征学习的Set Abstraction机制✅ 3D注意力机制的位置编码和计算优化💼 行业应用认知✅ 自动驾驶3D感知的技术栈和性能指标✅ 工业检测的CAD对比和质量评估体系。
2025-09-09 00:09:50
289
原创 Day 16: GAN生成对抗网络专项 - 从博弈论到艺术创作的完整之旅
理论掌握程度检验能够解释GAN的博弈论基础与数学原理理解各类损失函数的设计动机与适用场景掌握训练稳定性问题的根源与解决方案熟悉现代GAN评估指标的计算与解释实践能力验证能够从零实现DCGAN并训练出合理结果理解StyleGAN的风格控制机制与编辑方法掌握CycleGAN的无配对转换原理与实现能够构建完整的GAN应用项目项目开发能力设计并实现人脸生成编辑系统构建艺术风格迁移应用开发图像超分辨率重建工具创建智能数据增强生成器🧠 AI理论深度⬆️⬆️⬆️⬆️⬆️。
2025-09-09 00:08:22
223
原创 Day 15: LangChain Agent智能体开发 - 从链式思考到自主决策的完整实战
本文介绍了LangChain框架的系统学习课程,涵盖从基础到高级应用的完整技能栈。课程重点包括LangChain核心架构、Agent智能体开发、自定义工具集成、记忆机制管理以及实战项目开发。技术栈涉及LangChain与OpenAI/本地LLM、向量数据库的整合使用。文章详细说明了环境准备步骤,包括核心依赖安装和API密钥配置,并演示了LLM模型管理器和链式组合模式的实现原理,展示了如何构建文档分析链等复杂应用。通过统一的接口封装不同LLM模型,实现模型热插拔和结构化输出解析,为开发者提供标准化的AI应用开
2025-09-09 00:07:37
95
原创 Day 14: RAG检索增强生成核心技术 - 从原理到实战的完整指南 [特殊字符]
RAG技术核心原理与应用指南 RAG(检索增强生成)技术通过结合外部知识检索与大模型生成能力,有效解决了传统大语言模型的知识幻觉和时效性局限。其核心流程包括:离线阶段的文档预处理与向量化,以及在线阶段的查询检索与答案生成。RAG系统通过动态获取最新信息并生成可溯源的准确回答,广泛应用于企业知识库、智能客服等领域。实现过程中涉及文档向量化存储、相似度检索以及大模型上下文注入等关键技术,显著提升了AI问答系统的可靠性和实用性。
2025-09-09 00:06:53
97
原创 Docker CI/CD 自动化部署配置指南
本文档详细介绍了如何为RuoYi Flowable项目配置基于GitHub Actions和Docker Hub的自动化CI/CD部署流程。主要内容包括:Docker Hub账号准备(注册账号、生成访问令牌)、云服务器环境配置(安装Docker、创建网络)、SSH密钥生成与配置、GitHub Secrets设置(Docker凭证、服务器信息等),以及项目文件结构说明。通过此配置,可实现代码推送后自动构建Docker镜像并部署到云服务器,支持前后端分离和零停机更新。
2025-09-02 15:27:19
925
原创 DAY 6-1 基于ResNet的危险驾驶检测项目
摘要(150字): 本项目基于ResNet50构建危险驾驶行为检测系统,通过深度学习自动识别驾驶员分心状态(如发短信、打电话等)。采用Kaggle的State Farm数据集,包含10类驾驶行为图像。核心代码实现数据增强(随机裁剪、翻转等)、模型训练与验证流程。配置文件中可调整图像尺寸、批大小等参数,优化模型性能。系统可集成到车载ADAS中,实时监测驾驶员状态,预防交通事故。项目需GPU加速训练,推荐RTX 2080Ti显卡,使用PyTorch框架实现,最终模型可输出危险行为分类结果,提升道路安全。
2025-08-21 11:35:59
107
原创 Day 13: LLM工程化与生产部署实战 - 从训练到上线的完整链条
本文介绍了将训练好的ChatGLM3-6B医学问答模型部署为生产级API服务的完整流程。主要内容包括: 模型继承:直接加载Day12训练的LoRA权重,无需重复训练,实现快速部署 性能优化:采用KV Cache缓存机制和vLLM框架提升推理速度 API服务:使用FastAPI构建高性能Web服务 生产部署:通过Docker容器化、监控告警和负载均衡实现稳定运行 文章提供了详细的代码示例,包括模型加载、KV Cache优化实现和vLLM框架集成等关键步骤,帮助开发者快速掌握大模型工程化的核心技能。
2025-08-19 17:27:54
141
原创 Day 11: 预训练语言模型基础 - 理论精华到实战应用的完整指南
本文介绍了预训练语言模型的核心概念与实践应用。主要内容包括:1)预训练-微调范式原理,通过大规模无监督预训练和少量标注微调两阶段训练;2)BERT、GPT等经典架构对比;3)HuggingFace实战演示,涵盖掩码语言建模、情感分析等任务;4)预训练与传统训练方式的对比优势,突出其在数据需求、开发周期和模型效果上的显著提升。文章采用理论讲解与代码实践相结合的方式,帮助读者在2小时内掌握预训练语言模型的核心技能。
2025-08-14 15:28:37
155
原创 Day 10: Mini-GPT完整手写实战 - 从组件组装到文本生成的端到端实现
本文介绍了Mini-GPT的完整实现过程,包括数据预处理、模型架构和训练流程。文章首先对比了GPT和BERT的架构差异,强调GPT作为生成式模型的特性。然后详细展示了字符级分词器的构建、文本数据集的准备,以及核心组件MultiHeadAttention的实现。整个实现采用PyTorch框架,重点关注了因果注意力掩码、残差连接等关键设计,为理解GPT类语言模型的工作原理提供了实践基础。
2025-08-12 15:15:35
133
原创 Day 9: Transformer注意力机制原理 - 从直观理解到数学推导的完整解析
本文系统解析了Transformer中的注意力机制原理,从生活类比到数学推导。注意力机制通过查询(Query)、键(Key)和值(Value)的交互,让模型能动态关注输入序列的不同部分,解决传统RNN的并行计算和长距离依赖问题。核心数学公式Attention(Q,K,V)=softmax(QK^T/√d_k)V实现了加权信息融合,其中缩放因子√d_k防止梯度消失。文章通过Python代码示例展示了Self-Attention的完整计算过程,包括QKV矩阵生成、注意力分数计算、缩放和归一化等关键步骤。这种机制
2025-08-09 19:15:08
580
2
原创 Day 8: 深度学习综合实战与进阶技术 - 从优化到部署的完整流程
本文介绍了深度学习模型优化与正则化技术的实战应用。重点内容包括: 正则化技术对比:详细分析了L1/L2正则化、Dropout和BatchNorm的原理、适用场景及优缺点,通过对比表格展示不同方法的特性。 代码实现:提供PyTorch实现示例,构建包含多种正则化技术的神经网络架构,演示了L1/L2正则化的具体实现方式。 优化效果实验:设计了模拟实验对比不同正则化方法的表现,包括无正则化、仅Dropout、仅L2、L1+L2以及组合策略,通过高维带噪声数据验证各方法防止过拟合的效果。 文章强调正则化技术是提升模
2025-08-09 17:42:32
216
原创 Day 7: RNN循环神经网络 - 序列数据的记忆大师
摘要: RNN(循环神经网络)是专为序列数据设计的神经网络,通过隐藏状态传递历史信息,使其具备处理时间序列、文本等能力。核心机制为循环结构,每个时间步的输出依赖当前输入和之前状态(公式:h_t = tanh(W_hh * h_{t-1} + W_ih * x_t + b_h))。PyTorch实现展示了RNN的逐步处理过程。但其存在梯度消失/爆炸、长期依赖和并行性差等局限,可通过LSTM/GRU、梯度裁剪和注意力机制优化。RNN是机器翻译、语音识别等任务的基础模型。 关键词: RNN、序列数据、隐藏状态、梯
2025-08-08 00:32:30
231
原创 Day 6: CNN卷积神经网络 - 计算机视觉的核心引擎
CNN卷积神经网络是计算机视觉的核心技术,通过卷积层自动提取图像特征,采用池化层降维压缩。卷积操作利用局部连接和权重共享机制,有效减少参数量并识别边缘、纹理等特征。池化层(MaxPooling/AvgPooling)通过下采样保留关键信息,增强模型鲁棒性。PyTorch实现展示了不同卷积参数(kernel_size、stride、padding)对输出尺寸的影响,以及各种池化方法的性能差异。CNN从简单到复杂逐层提取特征,使其在图像分类、目标检测等任务中表现卓越。
2025-08-07 23:54:59
308
原创 Claude Code MCP 网络搜索配置命令
本文对比了Windows与Linux/macOS系统下配置Claude MCP服务的命令差异。Windows需通过cmd /c执行命令并使用反斜杠路径,而Linux/macOS可直接调用命令并使用正斜杠路径。文章提供了Brave Search、Tavily、Serper和DuckDuckGo四种搜索服务的跨平台配置示例,其中Tavily(AI增强)和Serper(Google搜索)为首选推荐。配置步骤包括获取API密钥、替换命令参数和执行配置命令,不同系统需注意命令格式差异,Windows用户还需确保已安装
2025-08-07 23:28:24
1920
原创 Day 5: 深度学习理论与PyTorch实现 - 神经网络训练的艺术
神经网络训练原理、激活函数对比、损失函数选择、优化器算法、标准化训练流程
2025-07-31 22:32:57
505
1
原创 Day 4-2: PyTorch基础入门 - 从NumPy到深度学习的桥梁
PyTorch基础入门摘要(150字): PyTorch是Facebook开发的深度学习框架,将NumPy数组计算扩展到GPU并支持自动微分。核心功能包括:1)张量运算支持GPU加速计算;2)自动微分机制自动计算梯度;3)动态计算图便于调试。基础操作涵盖:创建张量(torch.tensor)、矩阵运算(torch.mm)、GPU加速(.cuda())等。典型应用场景包括神经网络训练、科学计算和并行矩阵运算。PyTorch通过Autograd实现自动求导,只需设置requires_grad=True即可跟踪梯
2025-07-31 04:55:06
371
原创 Day 4-1: 机器学习算法全面总结
摘要:本文全面总结了机器学习经典算法及其应用。文章系统梳理了监督学习(回归、分类、集成)和无监督学习(聚类)的核心算法,包括线性回归、决策树、随机森林、SVM等,详细对比了各算法的思想、适用场景和优缺点。同时总结了机器学习实战中的标准流程、评估指标选择、特征工程技巧和算法选择决策树。文章还回顾了Python数据处理(pandas)、可视化(matplotlib/seaborn)和机器学习框架(sklearn)的核心工具使用,为后续深度学习学习打下坚实基础。
2025-07-30 21:52:39
235
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅