Jon Barron是Google Research 的高级研究员,从事计算机视觉和机器学习方面的工作。他在加州大学伯克利分校攻读博士学位完成后,在到Google从事 Portrait Light, Lens Blur, HDR+, Jump, Portrait Mode, Glass, and NeRF。
github链接:https://github.com/jonbarron/
Jon Barron近两年发表了多篇NeRF相关的论文:
《View synthesis robust to unconstrained image data》
该专利提出了用于合成复杂场景(例如,户外场景)的新视图的系统和方法。 在一些实施方式中,系统和方法可以包括或使用机器学习模型,这些模型能够从非结构化和/或不受约束的图像集合中学习,例如“户外”照片。 特别地,本公开的示例实现可以学习体积场景密度和辐射度由机器学习模型表示,例如一个或多个多层感知器 (MLP)。巴伦教授在这里应该保护在NeRF-W论文中的想法。
《NeRF-Supervision: Learning Dense Object Descriptors from Neural Radiance Fields》
《Mip-NeRF 360: Unbounded Anti-Aliased Neural Radiance Fields》
《NeRF in the Dark: High Dynamic Range View Synthesis from Noisy Raw Images》
可参考链接:https://blog.csdn.net/CSS360/article/details/124551359?spm=1001.2014.3001.5501
《Block-NeRF: Scalable Large Scene Neural View Synthesis》
Jon Barron 提出了 Block-NeRF,一种可以表示大规模环境的神经辐射场的变体。 具体来说,我们证明,当缩放 NeRF 以渲染跨越多个街区的城市规模场景时,将场景分解为单独训练的 NeRF 至关重要。 这种分解将渲染时间与场景大小分离,使渲染能够扩展到任意大的环境,并允许对环境进行逐块更新。 我们采用了几项架构更改,以使 NeRF 对在不同环境条件下数月捕获的数据具有鲁棒性。 我们为每个单独的 NeRF 添加了外观嵌入、学习姿势细化和可控曝光,并引入了一种用于对齐相邻 NeRF 之间外观的程序,以便它们可以无缝组合。 我们从 280 万张图像中构建了一个 Block-NeRF 网格,以创建迄今为止最大的神经场景表示,能够渲染旧金山的整个社区。