<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title><![CDATA[qq_44708206的博客]]></title><description><![CDATA[]]></description><link>https://blog.csdn.net/qq_44708206</link><language>zh-cn</language><generator>https://blog.csdn.net/</generator><copyright><![CDATA[Copyright &copy; qq_44708206]]></copyright><item><title><![CDATA[SUDS代码复现]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134691443</link><guid>https://blog.csdn.net/qq_44708206/article/details/134691443</guid><author>qq_44708206</author><pubDate>Wed, 29 Nov 2023 15:46:26 +0800</pubDate><description><![CDATA[复现SUDS代码，主要进行环境配置，数据预处理，训练，查看PSNR渲染指标。]]></description><category></category></item><item><title><![CDATA[SUDS: Scalable Urban Dynamic Scenes]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134540215</link><guid>https://blog.csdn.net/qq_44708206/article/details/134540215</guid><author>qq_44708206</author><pubDate>Wed, 22 Nov 2023 16:34:13 +0800</pubDate><description><![CDATA[SUDS: Scalable Urban Dynamic Scenes：可扩展的城市动态场景。]]></description><category></category></item><item><title><![CDATA[十一周阅读记录]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134475885</link><guid>https://blog.csdn.net/qq_44708206/article/details/134475885</guid><author>qq_44708206</author><pubDate>Sun, 19 Nov 2023 16:29:12 +0800</pubDate><description><![CDATA[这种结合可以充分利用传统场景图的层次结构和关系表示的优势，同时使用神经网络学习场景中物体的表示。提出了一种学习的场景图表示，它编码了物体的变换和辐射，以便高效地渲染场景的新排列和视图。添加潜在向量相当于：一种从类别c的表示函数到对象o的辐射场的映射，可以实现在全局光照效果上的共享。： 场景图的节点表示场景中的元素，通常是物体或者物体的一部分。： 场景图的边表示节点之间的关系。，用于编码对象的表示。下图所示的场景图S由摄像机、静态节点和一组动态节点组成，动态节点表示场景的动态组件，包括对象外观、形状和类别。]]></description><category></category></item><item><title><![CDATA[第十周学习记录]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134331137</link><guid>https://blog.csdn.net/qq_44708206/article/details/134331137</guid><author>qq_44708206</author><pubDate>Fri, 10 Nov 2023 14:33:40 +0800</pubDate><description><![CDATA[观察到背景节点（通常是无界的大规模场景）的性质不同于以对象为中心的前景节点，框架提供了一个灵活的和开源的框架，支持不同的设计选择的场景表示的背景和前景节点，可以很容易地将新的静态场景重建和对象为中心的重建的最先进的方法。每个模型单独的获得一组采样点，背景采样点如果落在前景的bounding box里面，前景的颜色就可能会学到背景，渲染背景时就会出现前景的车辆的颜色，论文提出正则化项，让落在前景的采样点的体密度趋近于0，如下图，灰色的点即没有被纳入计算的点。将所有背景、前景采样点进行整合，排序后组合渲染。]]></description><category></category></item><item><title><![CDATA[第九周实验记录]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134218555</link><guid>https://blog.csdn.net/qq_44708206/article/details/134218555</guid><author>qq_44708206</author><pubDate>Sat, 04 Nov 2023 15:42:15 +0800</pubDate><description><![CDATA[如果想读取已经训练的权重 ：–load_dir /root/autodl-tmp/mars/outputs/0006/nsg-kitti-car-depth-recon/2023-11-04_090030/nerfstudio_models。并且根据提供的命令，渲染视频，也出现了错误，可能是nerfstudio安装出现问题，后续继续解决。右侧可以渲染图像，得到视频，以及导出点云，在导出点云文件时命令可以运行，得到点云文件。首先需要下载数据集，因为网络原因可能会无法下载，我是直接复制下载链接在浏览器下载。]]></description><category></category></item><item><title><![CDATA[第八周实验记录]]></title><link>https://blog.csdn.net/qq_44708206/article/details/134092867</link><guid>https://blog.csdn.net/qq_44708206/article/details/134092867</guid><author>qq_44708206</author><pubDate>Sun, 29 Oct 2023 19:04:22 +0800</pubDate><description><![CDATA[接着修改版本，使用pytorch2.x，cuda11.7尝试，Ubuntu20.04，这里初始的gcc为9.4.0版本，可以直接运行命令：pip install…安装，安装完成后，使用python引入tiny-cuda，出现错误。READ代码，首先尝试autodl连接图形界面，安装成功，按照github步骤，下载权重以及数据，尝试看效果，但是出现问题如图。在github的issues中有人同样提出该问题，没有得到解决。下载数据集后，进行训练，出现问题，没有得到解决，怀疑可能还是tiny-cuda安装错误。]]></description><category></category></item><item><title><![CDATA[搭建BP神经网络]]></title><link>https://blog.csdn.net/qq_44708206/article/details/133324213</link><guid>https://blog.csdn.net/qq_44708206/article/details/133324213</guid><author>qq_44708206</author><pubDate>Tue, 26 Sep 2023 22:05:42 +0800</pubDate><description><![CDATA[测量迭代10轮所用的时间：在main()函数中添加计时器：std::chrono::high_resolution_clock。正确率的增长逐渐变得缓慢，程序的运行时间也要相应的加长。]]></description><category></category></item><item><title><![CDATA[VolSDF]]></title><link>https://blog.csdn.net/qq_44708206/article/details/130593286</link><guid>https://blog.csdn.net/qq_44708206/article/details/130593286</guid><author>qq_44708206</author><pubDate>Wed, 10 May 2023 17:32:08 +0800</pubDate><description><![CDATA[将密度表示为到场景表面的有符号距离的函数，首先，它保证了生成密度的明确定义的表面的存在。其次，这种密度公式允许限制沿着光线的不透明度的近似误差。NeRF，将神经隐式函数与体积渲染相结合，能够达到极佳的渲染效果。然而在场景几何体形状的表示上有所欠缺。VolSDF将体积密度表示为可学习的表面几何形状的符号距离函数的变换版本，提供了有用的归纳偏置，允许几何结构的解纠缠（密度）和辐射场，并且相对于先前的神经体绘制技术改进了几何近似。此外，它允许限制不透明度近似误差，从而导致体绘制积分的高保真度采样。]]></description><category></category></item><item><title><![CDATA[NeRF代码学习]]></title><link>https://blog.csdn.net/qq_44708206/article/details/130051758</link><guid>https://blog.csdn.net/qq_44708206/article/details/130051758</guid><author>qq_44708206</author><pubDate>Mon, 10 Apr 2023 19:48:01 +0800</pubDate><description><![CDATA[学习nerf_pytorch项目代码，以及pytorch_lighting形式代码，首先需要读取数据，将数据输入神经网络进行训练（包括生成编码、生成光线、计算密度颜色、体渲染步骤），将数据输出。]]></description><category></category></item><item><title><![CDATA[Urban Radiance Fields]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129689252</link><guid>https://blog.csdn.net/qq_44708206/article/details/129689252</guid><author>qq_44708206</author><pubDate>Wed, 22 Mar 2023 15:04:57 +0800</pubDate><description><![CDATA[Urban Radiance Fields:城市辐射场摘要：这项工作的目标是根据扫描平台捕获的数据执行 3D 重建和新视图合成，这些扫描平台通常部署用于城市室外环境中的世界地图绘制（例如，街景）。给定 RGB 图像序列和通过室外场景移动的相机和扫描仪获取的激光雷达扫描，生成了一个模型，可以从中提取 3D 表面并合成新的 RGB 图像。]]></description><category></category></item><item><title><![CDATA[READ: Large-Scale Neural Scene Rendering for Autonomous Driving]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129652057</link><guid>https://blog.csdn.net/qq_44708206/article/details/129652057</guid><author>qq_44708206</author><pubDate>Sun, 19 Mar 2023 20:02:57 +0800</pubDate><description><![CDATA[论文提出了一种。]]></description><category></category></item><item><title><![CDATA[Neural Point-Based Graphics]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129648068</link><guid>https://blog.csdn.net/qq_44708206/article/details/129648068</guid><author>qq_44708206</author><pubDate>Sun, 19 Mar 2023 15:32:38 +0800</pubDate><description><![CDATA[Neural Point-Based Graphics ：基于神经点的图形摘要：论文提出了一种基于点的真实的场景外观建模方法。该方法使用原始点云作为场景的几何表示，并使用编码局部几何和外观的来增强每个点。深度渲染网络与描述符并行学习，使得可以通过使来自新视点的点云的光栅化经过该网络来获得场景的新视点。输入光栅化使用学习的描述符作为点伪色。介绍：论文将基于图像的渲染、基于点的图形和神经渲染的思想结合到一个简单的方法中。该方法使用作为场景几何表示，从而消除了表面估计和网格划分的需要。]]></description><category></category></item><item><title><![CDATA[Neural 3D Reconstruction in the Wild]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129646669</link><guid>https://blog.csdn.net/qq_44708206/article/details/129646669</guid><author>qq_44708206</author><pubDate>Sun, 19 Mar 2023 10:50:02 +0800</pubDate><description><![CDATA[提出了一种新的基于网络照片集的高质量三维表面重建的神经方法。为了有效地学习复杂场景的精确表面位置，引入了一种混合体素-表面引导采样技术，与基线方法相比，该技术显著地缩短了训练时间。]]></description><category></category></item><item><title><![CDATA[Block-NeRF]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129472834</link><guid>https://blog.csdn.net/qq_44708206/article/details/129472834</guid><author>qq_44708206</author><pubDate>Sun, 12 Mar 2023 15:54:49 +0800</pubDate><description><![CDATA[这是一种使用NeRF重建任意大环境的方法。]]></description><category></category></item><item><title><![CDATA[NeRF in the Wild]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129464797</link><guid>https://blog.csdn.net/qq_44708206/article/details/129464797</guid><author>qq_44708206</author><pubDate>Sun, 12 Mar 2023 09:45:46 +0800</pubDate><description><![CDATA[NeRF-Wild，一种基于NeRF的非结构化照片集的复杂环境3D场景重建的新方法]]></description><category></category></item><item><title><![CDATA[MINE: Towards Continuous Depth MPI with NeRF for Novel View Synthesis]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129395721</link><guid>https://blog.csdn.net/qq_44708206/article/details/129395721</guid><author>qq_44708206</author><pubDate>Wed, 08 Mar 2023 10:48:26 +0800</pubDate><description><![CDATA[引入NeRF提出了作为MPI的连续深度泛化的MINE，给定一幅图像，共同对摄像机视锥体进行密集重建，并修补被遮挡的内容。使用可微渲染将重建的视锥体渲染为新颖的视图RGB图像和深度图]]></description><category></category></item><item><title><![CDATA[NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor Multi-view Stereo]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129092692</link><guid>https://blog.csdn.net/qq_44708206/article/details/129092692</guid><author>qq_44708206</author><pubDate>Sat, 18 Feb 2023 09:57:47 +0800</pubDate><description><![CDATA[论文提出了一种多视图深度估计方法，该方法将基于学习的深度先验集成到NeRF的优化中，在具有自适应深度先验的体绘制期间正则化NeRF的采样过程。]]></description><category></category></item><item><title><![CDATA[IterMVS: Iterative Probability Estimation for Efficient Multi-View Stereo]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129046691</link><guid>https://blog.csdn.net/qq_44708206/article/details/129046691</guid><author>qq_44708206</author><pubDate>Fri, 17 Feb 2023 19:22:21 +0800</pubDate><description><![CDATA[提出在基于GRU的估计器的隐藏状态中显式地编码深度的逐像素概率分布。在每次迭代中，注入多尺度匹配信息，并提取（在逆深度范围内）均匀采样的深度分布，以估计深度图和置信度。]]></description><category></category></item><item><title><![CDATA[EPP-MVSNet]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129056351</link><guid>https://blog.csdn.net/qq_44708206/article/details/129056351</guid><author>qq_44708206</author><pubDate>Fri, 17 Feb 2023 09:19:27 +0800</pubDate><description><![CDATA[采用自适应极性组装核构造具有聚合高分辨率特征的紧凑成本体，从而获得较高的粗深度预测精度，改进了基于熵的距离预测策略在窄范围内的深度预测。通过优化成本正则化网络，集成伪三维运算，进一步提高了网络的效率。]]></description><category></category></item><item><title><![CDATA[Efficient Multi-view Stereo by Iterative Dynamic Cost Volume]]></title><link>https://blog.csdn.net/qq_44708206/article/details/129054313</link><guid>https://blog.csdn.net/qq_44708206/article/details/129054313</guid><author>qq_44708206</author><pubDate>Thu, 16 Feb 2023 09:50:53 +0800</pubDate><description><![CDATA[提出了一种新的迭代动态成本量，可以由多级gru处理，可以用于高分辨率的图像]]></description><category></category></item></channel></rss>