- 博客(5172)
- 资源 (4)
- 收藏
- 关注
原创 无人驾驶:名词02【Traffic-related contexts:交通相关的其他元素(红绿灯等)】
无人驾驶:名词02【Traffic-related contexts:交通相关的其他元素(红绿灯等)】
2026-04-23 00:14:26
10
原创 无人驾驶:名词04【Multi-modal Trajectory:多模态输出轨迹(变道、加速、减速等多种可能轨迹)】
无人驾驶:名词03【Multi-modal Trajectory:多模态输出轨迹(变道、加速、减速等多种可能轨迹)】
2026-04-23 00:12:20
13
原创 无人驾驶:名词03【Planning Trajectory:主车输出轨迹】【Prediction Trajectory:动态障碍物预测轨迹】
【Multi-modal Trajectory:多模态输出】
2026-04-23 00:11:11
6
原创 无人驾驶:名词01【AV:主车】【Agent:动态障碍物(社会车辆)】【Static Obstacle:静态障碍物(锥桶、水马等)】【Map:地图元素(车道线/道路边界等)】
自动驾驶:名词01【AV:主车;Agent:动态障碍物;Planning Trajectory:主车输出轨迹;Prediction Trajectory:动态障碍物预测轨迹;Multi-modal】自动驾驶:名词【AV:主车;Agent:动态障碍物;Static Obstacle:静态障碍物;Map:地图元素(车道线/道路边界)】Traffic-related contexts:交通相关元素。
2026-04-23 00:09:54
10
原创 端到端 Planner 中 Trajectory 如何用于计算 Loss?自动驾驶领域的经典 Loss 总结
ADE:Average Displacement Error,平均位移误差FDE:Final Displacement Error,终点位移误差AHE:Average Heading Error,平均航向误差FHE:Final Heading Error,终点航向误差LcomfortLdirLcomfortLdir抖动急刹急转逆行不顺着车道走。
2026-04-22 00:13:00
248
原创 端到端 Planner 中 Trajectory 如何用于计算 Loss?自动驾驶领域的经典 Loss 总结
ADE:Average Displacement Error,平均位移误差FDE:Final Displacement Error,终点位移误差AHE:Average Heading Error,平均航向误差FHE:Final Heading Error,终点航向误差LcomfortLdirLcomfortLdir抖动急刹急转逆行不顺着车道走。
2026-04-21 22:59:13
13
原创 一段式端到端自动驾驶技术方案深度研究报告【2026-04-21】
是连续轨迹、token 化动作、occupancy rollout 还是 diffusion 采样。扩散与 VLA 的兴起,本质都是在解决“单峰回归不足以表达驾驶行为”的问题,只是前者从概率建模入手,后者从语义认知入手。
2026-04-21 22:38:22
66
原创 自动驾驶:Trajectory格式【nuPlan(x,y,ψ,t) 、Waymo(x,y,bbox_yaw,vₓ,vᵧ,valid)、AV2、nuScenes】
从公开数据集看,差异主要在 4 件事上:1)是只标注,还是标注;2)坐标系用还是;3)每个轨迹点只存xy,还是还带上ψ(航向)、v(速度)、时间戳、valid mask 等;4)时间采样密度和预测时域不同。nuPlan 更像“规划监督”,Waymo/Argoverse 2 更像“多目标轨迹/运动预测监督”,nuScenes 的 prediction 接口则常被拿来做未来点监督。
2026-04-21 21:52:48
58
原创 端到端规划:PLUTO【Pushing the Limit of Imitation Learning-based Planning for Autonomous Driving】【名词介绍】
2026-04-21 21:03:02
10
原创 π0.7:a Steerable Generalist Robotic Foundation Model with Emergent Capabilities
Figure 1: Fig. 1: We introduce π0.7\pi _ { 0 . 7 }π0.7 , a steerable generalist robot foundation model that can perform dexterous tasks across many tasks, environments, and robots. π0.7\pi _ { 0 . 7 }π0.7 is trained with diverse prompts that contain not
2026-04-21 20:03:01
6
原创 202106-nuPlan:面向自动驾驶车辆的基于 ML 的闭环规划基准【多模态的,这意味着对于每个agent,我们会预测最有可能的N条轨迹】
在本工作中,我们提出了全球首个用于自动驾驶的闭环机器学习规划基准。尽管基于机器学习的运动规划器日益增多,但由于缺乏公认的数据集和评估指标,该领域的进展受到了限制。现有的自动驾驶汽车运动预测基准主要集中在短期运动预测,而非长期规划。这导致以往的研究采用开环评估和基于 L2 的指标,而这些方法并不适合公平地评估长期规划。我们的基准通过引入大规模驾驶数据集、轻量级闭环仿真器以及运动规划专用指标,克服了这些局限性。
2026-04-19 20:32:50
105
原创 201812-ChauffeurNet:通过模仿最佳行为并合成最劣行为来学习驾驶【即使使用多达 3000 万个样本,标准的行为克隆也不足以处理复杂的驾驶场景】
Mayank BansalWaymo ResearchMountain View, CA 94043, USAmayban@waymo.comAlex Krizhevsky ∗akrizhevsky@gmail.comAbhijit OgaleWaymo ResearchMountain View, CA 94043, USAogale@waymo.comEditor:Our goal is to train a policy for autonomous driving via imitation lea
2026-04-19 20:29:23
189
原创 Planner:从轨迹标注到基于轨迹的有监督训练(一篇讲清自动驾驶轨迹学习的论文综述)
轨迹样本是怎么挖出来的,标签 schema 是什么,benchmark 怎么定义。类型名称地址发布时间简介(200字内)综述arXiv2024-01-02很适合作为入口。系统讨论自动驾驶数据集的 annotation process、labeling tools 和 annotation quality,适合先建立“轨迹标注流水线”的全局视角。数据/标注2021。
2026-04-19 18:35:36
234
原创 202411-DiffusionDrive: Truncated Diffusion Model for End-to-End Autonomous Driving
问题思考:
2026-04-19 17:02:56
25
原创 Git 新手入门:一文搞懂分支命名规范与 Git Flow,feature、bugfix、hotfix、release 到底有什么区别
featurebugfixhotfixrelease这些并不是 Git 内置的特殊分支类型,而是团队约定的分支命名前缀。这条分支是干什么的紧急程度如何是否和发布有关是否是线上问题修复main:正式代码develop:开发主线feature/*:新功能bugfix/*:普通 Bug 修复hotfix/*:线上紧急修复release/*:发版准备分支名要让别人一眼看懂你在做什么。
2026-04-18 09:36:33
151
原创 一文讲透扩散模型采样器:DDPM、DDIM、Euler、Heun、DPM-Solver、UniPC、LCM 全面对比
大部分你上面提到的求解器,默认都属于 Diffusion 生态DDIMLMSDEISUniPCEuler aKarras VESA-SolverCM / LCM / TCD(它们不是 FM,更接近 consistency / distillation 路线,通常仍站在 diffusion 这边)这些方法的官方文档或论文都直接写明是给用的。
2026-04-16 01:25:12
296
原创 Diffusion 三种参数化彻底讲清楚:ϵ、x₀、vₜ 的等价推导、训练与推理循环次数、伪代码、典型步数
下面是我帮你完全重整后的 CSDN 可直接粘贴版。我保留了你原文里的全部核心知识点,包括:同时我把原文里一些公式排版错误、乱码引用、断裂符号、伪代码前后不一致的地方都修顺了,尽量写成了高中生也能顺着读懂的版本。在扩散模型里,所谓“参数化方式”,本质上就一句话:最常见的三种写法是:它们看起来像三个不同任务,其实不是。它们描述的是同一个去噪问题,只是选了不同的目标变量。但是要特别注意:因为虽然它们可以互相转换,但训练时优化的是不同目标,对应不同损失空间,误差传播方式也不一样。所以工程上,三种参数化的表现并不
2026-04-16 01:01:29
246
原创 DDPM 与 DDIM 的完整对比报告:相同点、不同点、训练、推理、为什么一个慢一个快
下面给你一版可直接复制到 CSDN 的完整成稿。我把你前面提到的所有关键点都合并进去了:包括论文信息、统一符号、训练过程、推理过程、x^0\hat{x}_0x^0 的作用、为什么 DDPM 常说要上千步、为什么 DDIM 更快、两者的相同点与不同点、工程上如何理解“DDPM 训练器 + DDIM 采样器”,以及最后的总表。核心结论都对照了原论文、NeurIPS / OpenReview 页面、Diffusers 官方文档和 DDIM 官方仓库。(arXiv)一句话先讲透:更准确地说:所以最容易记住的版本就
2026-04-16 00:40:05
237
原创 Text Diffusion-202503-Block Diffusion07:BD3-LM 是如何缩小与 AR 性能差距的?
为什么扩散语言模型在并行生成、可控生成上很有吸引力,但一到 perplexity 这种最核心的语言建模指标上,往往还是打不过自回归模型(AR)?《Block Diffusion: Interpolating Between Autoregressive and Diffusion Language Models》这篇论文给出的答案很有价值:问题不只是模型结构,还在训练目标与训练方差。 作者没有简单地把 diffusion 做得更复杂,而是反过来思考:怎样让 diffusion 在结构上、目标上、训练方式上都
2026-04-15 20:23:19
254
原创 Text Diffusion-202503-Block Diffusion06:公式 (8)、公式 (9)、公式 (10)
为了方便记忆,可以把这三个公式压缩成三句话。
2026-04-15 20:22:57
208
原创 Cosmos-Reason1:从物理常识到具身推理
Cosmos-Reason1: From Physical Common Sense To Embodied ReasoningAbstract 摘要Physical AI systems need to perceive, understand, and perform complex actions in the physical world. In this paper, we present the Cosmos-Reason1 models that can understand the phys
2026-04-14 23:59:25
351
原创 NV-自动驾驶-202511-Alpamayo-R1:弥合推理与动作预测,实现长尾场景下可泛化的自动驾驶
Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving in the Long TailAlpamayo-R1:弥合推理与动作预测,实现长尾场景下可泛化的自动驾驶NVIDIA摘要End-to-end architectures trained via imitation learning have advanced autonomous driving by scaling mode
2026-04-14 21:44:25
390
原创 2024–2026 英伟达具身智能主线清单
按你继续扩展后,这里给的是一份:保留你上一条里的 2025–2026 条目,再补入 2024 年同一主线的代表作。。个别论文存在与不一致的情况,所以我这次保留作为排序依据,同时单列;其中属于 NVIDIA 2024 页面但 arXiv 首发于 2025-02,属于 NVIDIA 2025 页面但 arXiv 首发于 2024-10。目前仍未检到公开 arXiv,只能给 NVIDIA 页面和 DOI。
2026-04-14 21:19:05
46
原创 grokking 测试01
严格来说,。更准确地说,它们属于这一类“”,而不是 Kaplan/Chinchilla 那种直接研究“模型规模、数据量、算力与 loss/性能之间幂律关系”的 scaling law 方法。经典 scaling law 工作的核心是:拟合或利用,并据此做 compute-optimal 设计;
2026-04-13 00:50:37
17
原创 Scaling Laws经典论文02:Training Compute-Optimal Large Language Models【DeepMind,202203】
误差L如何随着NDC变化\text{误差 }L\quad \text{如何随着} \quadN,\ D,\ C\quad \text{变化}误差L如何随着NDC变化固定算力C时,N和D应该怎么分\text{固定算力 }C\text{ 时,}N\text{ 和 }D\text{ 应该怎么分}固定算力C时,N和D应该怎么分最优训练不是只把模型做得更大,而是让“模型参数量”和“训练 token 数”一起增长。脑子要变大;
2026-04-13 00:40:19
13
原创 Scaling Laws经典论文01:Scaling Laws for Neural Language Models【OpenAI,202001】
误差vs模型参数量N\text{误差} \quad vs \quad \text{模型参数量 } N误差vs模型参数量N误差vs数据量D\text{误差} \quad vs \quad \text{数据量 } D误差vs数据量D误差vs训练算力C\text{误差} \quad vs \quad \text{训练算力 } C误差vs训练算力C误差vsND\text{误差} \quad vs \quad (N,D)误差v。
2026-04-13 00:35:01
12
原创 Ubuntu Server 20.04 系统安装(六)-2:Linux搭建frp服务(多用户),实现内网穿透服务,实现外网到内网的在线访问
要实现Ubuntu 22.04 两个普通用户在不开登录界面的情况下都自动连接 frp给userA和userB分别创建两个 systemd 系统服务,并用User=userAUser=userB让它们各自以普通用户身份运行自己的frpc配置。如果你要,我可以下一条直接给你一份**“可复制粘贴版”**,把两份frpc.ini和两份.service文件一次性整理好。
2026-04-12 12:06:39
251
原创 Text Diffusion-202503-Block Diffusion05:NELBO02(Negative Evidence Lower BOund,负证据下界)【可训练、可优化的替代目标】
θ。
2026-04-11 21:36:53
58
原创 Text Diffusion-202503-Block Diffusion04:NELBO(Negative Evidence Lower BOund,负证据下界)【可训练、可优化的替代目标】
负证据下界。
2026-04-11 21:30:46
89
《Approaching (Almost) Any Machine Learning Problem》
2023-09-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅