演讲者:沈若冰博士
时间:2019-12-27 15:00-16:00
地点:慧园3栋 415报告厅
报告摘要
作为无人驾驶系统的底层技术,人工智能、计算机视觉模型需要从真实道路测试中收集大量的视频和图像数据。但是,如果缺少了标注,这些图片对人工智能模型来说毫无意义。图像标注者对图像进行标注,例如围绕行人绘制图框或者标记单个像素的详细信息(如:类别)。一个丑陋的事实是:数据科学家将近80%的时间用于数据方面的准备。然后,这些已标注的图片将用于“教导”无人驾驶人工智能系统如何识别和定位对象,以及如何据此作出恰当的反应。因此,无人驾驶公司必须找到一种方法来加速标注而不牺牲质量。我们开发了一种半自动的基于启发式和整数规划的全景分割标注算法,可以帮助标注者大大提高标注效率。在Pascal VOC和Cityscapes公开数据集上测试算法,发现它在只获取图片RGB信息的情况下就可以得到很好的精度,并且在使用深度学习推断信息作为算法的输入后,图像分割的精度获得了更大的提升。报告将首先概述计算机视觉和运筹学在无人驾驶中扮演的角色,其次介绍图像标注在无人驾驶感知模块中的作用。最后,简要讨论全景分割算法底层的数学模型以及它在公开数据集上的表现。演讲中将穿插无人驾驶感知模块(摄像头)的一些演示视频。
个人简介
美国克莱姆森大学应用数学硕士(运筹学方向),德国海德堡大学数学博士(离散与组合优化、计算机视觉方向),欧盟玛丽居里学者。曾于意大利博洛尼亚大学工学院、IBM Cplex各实习半年,法国巴黎综合理工计算机学院访问一季。博士期间创办了『运筹OR帷幄』公众号–知乎专栏,以及运筹学–人工智能学术社区,担任专栏主编。目前在德国汽车集团无人驾驶部门机器学习组担任计算机视觉研发工程师,致力于下一代无人驾驶感知系统的研发工作。