[计算机视觉论文速递] ECCV 2018 专场5

link: https://github.com/amusi/daily-paper-computer-visionPS:记得顺手点一下"文末的广告"哦~ECCV 2018是计算机视觉领域中的顶…

点击上方“CVer”,选择“置顶公众号”

重磅干货,第一时间送达

前戏

Amusi 将日常整理的论文都会同步发布到 daily-paper-computer-vision 上。名字有点露骨,还请见谅。喜欢的童鞋,欢迎star、fork和pull。

直接点击“阅读全文”即可访问daily-paper-computer-vision。

link: https://github.com/amusi/daily-paper-computer-vision


PS:记得顺手点一下”文末的广告”哦~

ECCV 2018是计算机视觉领域中的顶级会议,目前已经公开了部分已录用的paper。之前已经推送了四篇 ECCV 2018论文速递推文:

[计算机视觉论文速递] 2018-07-19 ECCV 2018专场1

[计算机视觉论文速递] ECCV 2018 专场2

[计算机视觉论文速递] ECCV 2018 专场3

[计算机视觉论文速递] ECCV 2018 专场4


Crowd Counting

《Iterative Crowd Counting》

ECCV 2018

the ic-CNN architecture


 

Qualitative results on the Shanghaitech Part B datase 

Abstract:在这项工作中,我们解决了图像中人群计数的问题。我们提出了一种基于卷积神经网络(CNN)的密度估计方法来解决这个问题。一次性预测高分辨率密度图是一项具有挑战性的任务。因此,我们提出了一个用于生成高分辨率密度图的两分支CNN架构,其中第一个分支生成低分辨率密度图,第二个分支包含来自第一个分支的低分辨率预测和特征图以生成高分辨率密度图。我们还提出了我们方法的多阶段扩展,其中管道中的每个阶段都使用来自所有先前阶段的预测。与目前最佳的人群计数方法的实证比较表明,我们的方法在三个具有挑战性的人群计数基准上实现了最低的平均绝对误差:Shanghaitech,WorldExpo’10和UCF数据集。

arXiv:https://arxiv.org/abs/1807.09959

Depth Prediction

《StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction》


ECCV 2018

Model architecture 

Hierarchical refinement results 

Abstract:本文介绍了StereoNet,这是第一个用于实时立体匹配的端到端深度架构,在NVidia Titan X上以60 fps运行,可生成高质量,边缘保留,无量化(quantization-free)的视差图。本文的一个重要创新点是网络实现了亚像素匹配精度,而不是传统立体匹配方法的精度。This allows us to achieve real-time performance by using a very low resolution cost volume that encodes all the information needed to achieve high disparity precision.。通过采用学习的边缘感知上采样功能来实现空间精度。我们的模型使用Siamese网络从左右图像中提取特征。在非常低分辨率的cost volume中计算视差的第一估计,然后分层地通过使用紧凑的像素到像素细化网络的学习的上采样函数来重新引入高频细节。利用颜色输入作为指导,该功能(function)能够产生高质量的边缘感知输出。我们在多个基准测试中获得了最佳的结果。


arXiv:https://arxiv.org/abs/1807.08865

注:哇,实时立体匹配啊!


希望上述两篇ECCV 2018 最新的paper可以给你带来一点灵感~

▲长按关注我们


举手之劳

欢迎点击一下文末的广告,

这是相当于给Amusi 加了鸡腿

发表评论

电子邮件地址不会被公开。 必填项已用*标注