贝博bb
Mou Mou Jidian Generator
发电机维修 发电机回收
发电机出售 发电机租赁
客户统一服务热线

061-916289883
11420893769

荣誉资质
HONOR
您的位置: 主页 > 荣誉资质 >

NeurIPS 2019:盘算机视觉论文回首

本文摘要:作者:Maria Dobko编译:ronghuaiyang导读这是2019年12月9日至14日在温哥华举行的NeurIPS 2019的概述(条记)。这篇文章中提到的所有论文都是在盘算机视觉领域。

贝博bb平台体育

作者:Maria Dobko编译:ronghuaiyang导读这是2019年12月9日至14日在温哥华举行的NeurIPS 2019的概述(条记)。这篇文章中提到的所有论文都是在盘算机视觉领域。NIPS 2019上的一些论文回首集会网站:https://neurips.cc/论文全集:https://papers.nips.cc/book/advances-in-neural-information-processing-systems-32-2019这是2019年12月9日至14日在温哥华举行的NeurIPS 2019的概述(条记)。

凌驾13000名到场者。两天的研讨会,一天的领导课和三天的主要集会。

在这篇文章中,我会简要地形貌了一些论文,它们引起了我的注意。这篇文章中提到的所有论文都是在盘算机视觉领域,这是我的研究领域。

神经网络可视化的全梯度表现Suraj Srinivas, François Fleuret论文链接:https://papers.nips.cc/paper/8666-full-gradient-presentation-for-neural-networkvisualiz.pdf探索输入部门的重要性如何被显著性映射捕捉。研究讲明,任何神经网络的输出都可以剖析为输入梯度项和神经元梯度项。

他们证明晰在卷积网络中聚合这些梯度映射可以改善显著性映射。论文提出了FullGrad显著性,它联合了输入梯度和特征级偏差梯度,因此,满足两个重要观点:局部(模型对输入的敏感性)和全局(显著性图的完整性)。扰动生成模型中目的支解的泛起 Emergence of Object Segmentation in Perturbed Generative ModelsAdam Bielski, Paolo Favaro论文链接:https://arxiv.org/pdf/1905.12663.pdf提出了一种不需要人工标注就能从一组图像中学习目的支解的框架。其主要思想是建设在这样的视察之上:相对于给定的配景,物体的位置可以被局部扰动,而不影响场景的真实感。

训练生成模型,生身分层图像表现:配景,掩模,前景。作者使用小的随机移位来袒露无效的支解。他们用两个生成器训练StyleGAN,用蒙版划分作为配景和前景。它经由训练,使具有移位前景的合成图像出现出有效的场景。

在生成的掩码上另有两个损失项,以促进二值化而且资助最小掩码的收敛,这两个项都添加到WGAN-GP生成器损失中。他们还训练了编码器与牢固的生成器,以获得支解的真实图像。该方法在LSUN物体数据集的4个种别上举行了测试:汽车、马、椅子、鸟。

GPipe:使用管道并行性有效地训练巨型神经网络Yanping Huang, Youlong Cheng, Ankur Bapna, Orhan Firat, Mia Xu Chen, Dehao Chen, HyoukJoong Lee, Jiquan Ngiam, Quoc V. Le, Yonghui Wu, Zhifeng Chen为相识决高效和任务无关的模型并行性需求,引入了GPipe,这是一个可扩展的模型并行性库,用于训练可以表现为层序列的巨型神经网络。该算法接纳同步梯度更新的方法,使模型并行化,具有较高的硬件使用率和训练稳定性。主要孝敬包罗模型可扩展性(在吞吐量和巨细上险些线性加速,支持凌驾1k层和90B参数的很是深的transformer),灵活性(任何网络的扩展),简朴的编程接口。GPipes提供了一种提高质量的方法,甚至可以使用迁移学习或多任务学习来提高较小数据集的质量。

实验讲明,越深的网络迁移效果越好,而越宽的模型影象效果越好。使用神经网络来学习条件可变形模板Adrian Dalca, Marianne Rakic, John Guttag, Mert Sabuncu论文链接:https://papers.nips.cc/paper/8368-learning-conditional-deformable-templates-with-convolutional-networks.pdf代码:https://github.com/voxelmorph/voxelmorph学习框架预计可变形模板(atlases)连同校准网络。

贝博bb平台体育

启用基于所需属性的条件模板生成函数。该方法团结学习注册网络和图集。

我们开发了一个学习框架来建设可变形模板,它在许多图像分析和盘算剖解任务中起着基础作用。在模板建立和图像对齐的传统方法中,模板是使用模板预计和对齐的迭代历程中构建的,这通常在盘算上很是昂贵。

先容的方法包罗一个概率模型和有效的学习计谋,生成通用模板或条件模板,以及一个神经网络,提供有效的对齐这些模板的图像。这对临床应用特别有用。

学习预测用于语义图像生成的布图到图像的条件卷积论文链接:https://arxiv.org/pdf/1910.06809.pdf代码:https://github.com/xh-liu/CC-FPSE该方法凭据语义标签映射对卷积核举行预测,从噪声映射中生成中间特征映射,最终生成图像。作者认为,对于generator:卷积核应该知道差别位置上差别的语义标签,而对于discriminator,应该增强生成图像和输入语义结构之间的细节和语义对齐。因此,使用图像生成器来预测条件卷积(有效地预测深度可分卷积,只预测深度卷积的权值,是一个全局上下文感知的权值预测网络)。

引入的特征金字塔语义-嵌入判别器用于纹理和边缘等细节,也用于与结构图的语义对齐。Saccader:提高视觉的注意力模型的准确性Gamaleldin F. Elsayed, Simon Kornblith, Quoc V. Le论文链接:https://arxiv.org/pdf/1908.07644.pdf代码:https://github.com/google-research/google-research/tree/master/saccader在这项事情中,硬注意模型的革新(他们选择图像中的显著区域,并只使用它们举行预测)被提出。这篇文章先容的模型 — Saccader有一个训练前的步骤,只需要类标签和提供初始注意位置的计谋梯度优化。

Saccader的结构:1、表现网络(BagNet),2、注意力网络,3、Saccader单元(无RNN,每次预测视觉的注意力位置)。最好的Saccader模型缩小了与普通ImageNet基线的差距,到达75%的top-1和91%的top-5,而只关注不到三分之一的图像。使用重画的非监视物体支解Mickaël Chen, Thierry Artières, Ludovic Denoyer论文链接:https://arxiv.org/pdf/1905.13539.pdfReDO(重绘物体)是一种非监视数据驱动的物体支解方法。

作者假设自然图像的生成是一个复合历程,其中每个物体都是独立生成的。他们把物体支解任务看作是发现可以重绘而不需要看到图像其余部门的区域。

如本文所述,该方法基于一种反抗性架构,其中生成器由输入样本引导:给定一个图像,它提取物体掩码,然后在相同位置重新绘制一个新工具。该生成器由一个判别器控制,以确保生成的图像的漫衍与原始图像对齐。加入学习函数,实验从一般图像中重建噪声向量,然后通过每次只重建一个区域,保持图像的其余部门稳定,将输出与输入绑定在一起。学习物体支解的完整模型。

学到的神经网络用粗体的彩色线条表现神经网络中的近似特征冲突Ke Li, Tianhao Zhang, Jitendra Malik论文链接:https://papers.nips.cc/paper/9713-approximate-feature-collisions-in-neural-nets.pdf特征冲突 — 两个差别的样本共享相同的特征激活,因此具有相同的分类决议。本文提出了一种特征冲突检测的方法。在这篇论文中,作者们证明晰神经网络可以令人惊讶地对庞大的逆向选择的变化不敏感。

在这个实验中,他们视察到这种现象可能是由ReLU激活函数的固有特性引起的,从而导致两个很是差别的样本共享相同的特征激活,从而做出相同的分类决议。可能的应用包罗有代表性的数据收集、正则化器的设计、易受攻击的训练样本的识别。网格对语义支解上下文解释的重要性Lukas Hoyer, Mauricio Munoz, Prateek Katiyar, Anna Khoreva, Volker Fischer论文链接:https://arxiv.org/pdf/1907.13054.pdf效果讲明,网格显著性可以乐成地提供易于解释的上下文解释,而且可以用于检测和定位数据中泛起的上下文偏差。主要目的是开发一种显著性方法,通过扩展现有的方法来生成网格显著性,从而为网络预测提供可视化的解释。

贝博bb

这为(像素级)浓密预测网络提供了空间相干的视觉解释,并为语义支解网络提供了上下文解释。通过反抗性模型操作来欺骗神经网络解释Juyeon Heo , Sunghwan Joo , Taesup Moon论文链接:https://arxiv.org/pdf/1902.02041.pdf假设:基于映射的显著性解释器很容易被欺骗,而不会显著降低准确性。

本文证明晰现在最先进的基于显著性映射的解释器,如LRP、Grad-CAM和SimpleGrad等,很容易被反抗性模型操作所欺骗。文章中提出了两种类型的欺骗,被动的和主动的,以及定量的怀抱 — 欺骗乐成率(FSR)。

它给出了为什么反抗性模型操作会有效,以及一些限制。深度神经网络中解释方法的基准Sara Hooker, Dumitru Erhan, Pieter-Jan Kindermans, Been Kim论文链接:https://papers.nips.cc/paper/9167-a-benchmark-for-interpretability-methods-in-deep-neural-networks.pdf对模型预测重要内容的错误预计可能导致对敏感领域(医疗、自动驾驶等)发生倒霉影响的决议。作者比力了特征重要性预计器,并探讨了集成它们是否能提高准确性。

为了比力这些方法,他们从每幅图像中去除一小部门所有像素,这些像素被认为是对模型预测孝敬最大的,而且在没有这些像素的情况下对模型举行再训练。假设最佳解释方法应提供去除模型性能最弱的像素点。

这种评估方法称为ROAR:RemOve And Retrain。测试方法包罗基础预计(梯度的热图,梯度积分,导向后向流传),基础预测器的集成(SmoothGrad梯度积分,VarGrad梯度积分等等),以及控制变量(随机,sobel边缘滤波器)。

最有效的方法是SmoothGrad-Squared和VarGrad。人眼感知评估:生成模型的基准Sharon Zhou, Mitchell L. Gordon et al.HYPE是一个尺度化的、有效的生成模型评估,它测试生成模型在人眼中的传神水平。

正如作者所提到的,它是一致的,灵感来自于知觉心理学中的心理物理学方法,可以可靠的通过从一个模型中随机取样的差别荟萃输出,获得可分散的模型性能,而且在成本和时间上很高效。用于语义支解的区域互信息损失Shuai Zhao, Yang Wang , Zheng Yang, Deng Cai论文链接:https://arxiv.org/pdf/1910.12037.pdf代码:https://github.com/ZJULearning/RMI语义支解通常接纳像素分类的方法来解决,而像素损失忽略了图像中像素之间的依赖关系。作者使用一个像素和它的相邻像素来表现这个像素,并将一个图像转换成一个多维漫衍。

因此,通过最大化预测和目的漫衍之间的相互信息,可以使预测和目的越发一致。RMI的思想是直观的,它也很容易使用,因为它只需要在训练阶段的一些分外的内存,甚至不需要改变基天职割模型。

RMI也可以在性能上实现实质性的、一致的革新。这个方法在PASCAL VOC 2012上举行了测试。

多源领域自适应语义支解Sicheng Zhao, Bo Li, Xiangyu Yue, Yang Gu, Pengfei Xu, Runbo Hu, Hua Chai, Kurt Keutzer论文链接:https://arxiv.org/pdf/1910.12181.pdf在这个事情领域中,对语义支解的适应是从多个泉源举行的,并提出了一个新的框架,称为MADAN。正如作者所述,除了特征级对齐外,像素级对齐还通过为每个源循环生成一个自适应的域来进一步思量,这与一种新的动态语义一致性损失是一致的。为了提高差别自适应域的一致性,提出了两种判别器:跨域循环判别器和子域聚合判别器。

该模型在合成数据集 —— GTA和SYNTHIA,以及真实的都会景观和BDDS上举行了测试。—END—英文原文:https://medium.com/@dobko_m/neurips-2019-computer-vision-recap-ddd26b13337c。


本文关键词:NeurIPS,2019,盘算机,视觉,论文,回首,作者,Maria,贝博bb平台体育

本文来源:贝博bb-www.ruidibio.com

Copyright © 2001-2022 www.ruidibio.com. 贝博bb科技 版权所有  ICP备案:ICP备33893492号-8