欢迎来到三一文库! | 帮助中心 三一文库31doc.com 一个上传文档投稿赚钱的网站
三一文库
全部分类
  • 研究报告>
  • 工作总结>
  • 合同范本>
  • 心得体会>
  • 工作报告>
  • 党团相关>
  • 幼儿/小学教育>
  • 高等教育>
  • 经济/贸易/财会>
  • 建筑/环境>
  • 金融/证券>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 三一文库 > 资源分类 > DOC文档下载
     

    一探究竟视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域.doc

    • 资源ID:3362284       资源大小:20.50KB        全文页数:5页
    • 资源格式: DOC        下载积分:2
    快捷下载 游客一键下载
    会员登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录   微博登录  
    二维码
    微信扫一扫登录
    下载资源需要2
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    一探究竟视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域.doc

    一探究竟视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域计算机视觉三大会议之一的ECCV 2018将于9月8号到14号在德国慕尼黑召开!本次会议共接收论文779篇,同时在会议上将举行11场tutorials和43场各个领域的workshops。同时优秀的论文还将在会议上进行口头报告,在四天的会议日程中将会有59个orals报告覆盖了从视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域。我们先来一探究竟吧!根据网站上公布的论文题目,可以看到今年的研究热点依然围绕学习、网络等研究方式展开,但同时,检测、可视化和视觉方面的研究也占有重要的位置。接下来我们就提前来看看ECCV将为我们带来哪些精彩的研究前沿吧!Oral今年ECCV的主论坛将12个不同主题的分论坛分别安排到了10-13号四天的会议时间中,主要包括了视觉学习、计算摄影学、人类分析和感知、三维重建、优化与识别等领域。在视觉学习方向,有来自Facebook的Yuxin Wu和Kaiming提出的Group Normalization来解决Batch Normalizaiton存在的问题,将不同的通道分组归一化实现了优异的表现。还有来自爱丁堡大学和日本理化研究所的研究人员提出的深度匹配自编码器,用于从非配对多模态数据中学习出共有的隐含空间。同时来自约翰霍普金斯大学、斯坦福大学和谷歌联合研究的渐进式神经架构搜索,用于学习神经网络的结构。通过基于序列模型的优化策略实现了高于强化学习和进化算法近五倍的效率和8倍的总体计算提升。并在CIFAR-10和ImageNet上取得了很高的精度。值得一提的是,除了来自于霍普金斯的刘晨曦和谷歌的Zoph外,论文作者还包括李飞飞和李佳等。据报道这篇文章与Neural Architecture Search with Reinforcement Learning和Large Scale Evolution of Image Classifiers等技术一起支撑了谷歌AutoML的发展。在计算摄影学方向,包括了从点光源、光场、可编程器件等研究热点。来自慕尼黑工大的研究人员利用相机卷帘快门的特性优化了直接稀疏里程计的后端,实现了近实时的准确VO方法。来自海德堡大学的研究人员提出了一种基于style-aware content的损失函数并联合自编码器训练出了实时高分辨率的风格迁移模型。使得生产的图像包含了更多更自然的美感。来自圣迭戈分校和Adobe的研究人员提出了一种利用单张手机照片获取不同材料表面变化的双边反射率函数,通过神经网络实现了对于SVBRDF的估计,为光度渲染带来了新的可能。在人类行为分析与感知包括了人体及各部分的姿态估计、人脸人手追踪、行人识别、行为预测等方面。来自布里斯托、卡塔尼亚和多伦多大学的研究人员们给出了一个用于研究人类行为习惯的第一人称数据库EPIC-KITCHENS,这一数据库记录了来自多个国家的参与者在厨房中的第一人称视角,包含了1150万帧图像和3.96万个动作分割与45.34万个bbox。这一数据集将用于第一人称的物体检测、行为识别和行为预测中去。同样来自湖南大学和东京大学的研究人员提出了从第一人称视角来预测凝视注意力的模型。来自中山大学、商汤和视源的研究人员们提出了一种通过部分xx网络实现了实例人体分析,通过将实例人体解析任务分解成语义分割和基于边缘检测将语义部件归并到确定人物身上的两个子任务来实现。来自伯克利的研究人员提出了一种联合视频中图像和声音信息的网络用于融合多传感器的表达,利用自监督的方式训练出了一种可以预测视频帧和音频是否对齐的神经网络,并可用于视频声源定位、音-视识别和音轨分离等任务。萨里大学和adobe的研究人员通过训练对称的卷积自编码器来学习出骨架关节位置的编码和身体的体积表示。能够准确恢复出关节位置的3D估计。来自洛桑理工的研究人员也提出了一种非监督的3D人体姿态估计模型,通过自编码器可以从单一视角的图像预测另一个视角。由于它编码了3D几何表示,研究人员还将它用于半监督学习映射人体姿态。在立体视觉三维重建方面,主要研究集中在几何、立体视觉和深度推理等方面。来自香港科技大学的研究人员提出了利用非结构化的图像作为输入,端到端地推算出参考图像的深图信息。其提出的NVSNet将相机参数编码为可微单应性变换来得到视椎体损失体积,建立起了2D特征抽取和3D损失正则化之间的关系。最终通过3D卷积来对初始点云规则化和回归来得到最终的输出结果。为了解决点云预测中点的位置与物体全局几何形状不匹配的问题的问题,港中文提出了几何对抗损失优化单视角下点云的全局三维重建。利用多视角几何损失和条件对抗损失来对网络进行训练。多视角几何损失使得网络学习重建多视角下有效的3D模型,而条件对抗损失则保证重建的3D物体符合普通图片中的语义信息。除此之外还包括了普林斯顿的共面匹配方法、普林斯顿与谷歌共同完成的主动立体视觉网络以及慕尼黑工大提出的基于深度预测的单目稀疏直接里程计等研究工作。在匹配与识别方面涵盖了目标检测、定位、纹理和位置精炼等方面的研究。来自密歇根大学的研究人员提出了一种基于关键点对儿的目标检测方法CornerNet。它将目标检测任务转换为利用单个神经网络对bbox左上和右下角的检测。这种方法消除了对于锚框的依赖。并提出了一种称为角点pooling的层来提高对角点的定位能力。最终在COCO上达到了42.1%的mAP.来自清华北大、旷视和头条的研究人员提出了一种目标检测中描述框定位置信度的方法IoU-Net,并利用定位置信度来改善目标检测中非极大值抑制,以产生更精确的预测框。同时提出了基于优化的框提炼方法。来自以色列理工学院的研究人员提出了一种基于上下文损失的图像迁移方法,适用于非对齐的数据。这种模型基于上下文和语义来定义损失。这一模型在卡通图像模拟、语义风格迁移和领域迁移中都表现除了很好的效果。Tutorials本届ECCV的tutorials同样是涉及了视觉领域各个方面的前沿内容,从对抗学习到3D重建,从行人识别到目标检测。一定能找到一个你需要的教程来深入学习。其中有Kaiming,rbg和Gkioxari等大神带来的视觉识别及其未来的系列教程。还有神经网络训练中归一化方法的理论与实践、特征与学习的视觉定位。还包括行人重识别的表达学习和基于步态">更多内容请参阅,某些教程目前已经开放相关资料下载了:https:/eccv2018/program/workshops_tutorials/Workshop最后我们来概览一番每次会议都必不可少的workshops。本届ECCV包括了43个workshops,其中包含了11个各领域的挑战赛。值得一提的是,很多来自中国的队伍在很多挑战赛中都取得了不错的成绩。今年的workshops 主要集中于识别、检测、自动机器(自动驾驶、无人机、机器人等)、人类理解分析、三维重建理解、几何/表示学习和早期视觉等领域。

    注意事项

    本文(一探究竟视觉学习、图形摄影、人类感知、立体三维以及识别等各个领域.doc)为本站会员(白大夫)主动上传,三一文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    经营许可证编号:宁ICP备18001539号-1

    三一文库
    收起
    展开