多模态
文章平均质量分 64
思考实践
以身作则,静待花开。长期主义,宇宙主义,价值导向。多角度分析问题,积极解决问题,不要停下来。THU-phd,CAS-master.
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Moe-Lora
看看这些所谓moe-lora有没有解释性 看看它们讲的是啥故事 对它们的任务 还是说只是通用指标。基于gpt对话框 讨论引入合适的neuro moe-lora模块试试。mindllm这篇文章得再未给gpt看看。原创 2025-09-28 03:30:09 · 310 阅读 · 0 评论 -
指代表达理解-REC
在计算机视觉与自然语言处理交叉领域中,指代表达理解(Referring Expression Comprehension, REC)一直是研究的关键方向。这一任务要求模型能够基于自然语言描述,在图像中精准定位相应的目标对象。然而,传统视觉模型在面对多实例指代任务时表现出明显局限:大多数仅针对单一实例优化,难以应对现实世界中"一条指令对应多个目标物体"的复杂场景。这种局限源于传统模型对语言理解的浅层处理,无法有效解析句子的语法结构和语义逻辑。原创 2025-04-03 03:50:53 · 1232 阅读 · 0 评论 -
LLm中Add token的操作,一般在微调过程(经典)
Add token操作 在LLM微调中原创 2025-03-26 20:34:44 · 1800 阅读 · 0 评论 -
指令微调(Instruction Finetuning),有点底子就能看懂。
参考小红书用户:“想变厉害的大白菜”原创 2025-03-23 19:58:41 · 256 阅读 · 0 评论 -
多模态数据融合简介#翻译
入门级介绍原创 2024-03-19 00:04:23 · 2299 阅读 · 0 评论
分享