猜你喜欢
更多>在各类AI大会里,英伟达每年两次的GTC大会可谓颇有名头。这当然不仅仅是因为英伟达的GPU产品在AI产业有着举足轻重的地位,也是因为GTC大会连续多年带来的技术热点、行业洞见和指导培训,让开发者得到了切实的帮助。
而自去年苏州阔别一年后,NVIDIA GTC 2020终于回到了我们的身边。此次GTC 2020采用了线上直播的形式,而内容却不会因为形式的改变而有丝毫的改变。一样的精彩纷呈,一样的干货与技术并重,在去年便贡献了精彩内容的百度飞桨,今年带着四场演讲回来了。
飞桨以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,是全面开源开放、技术领先、功能完备的产业级深度学习平台。去年GTC,飞桨 (PaddlePaddle)秉持技术实践与理论知识并行的理念,为开发者带来了一场收获满满的技术公开课。
今年,飞桨在GTC 2020上带来的四场演讲也是诚意十足,内容覆盖了飞桨推理引擎、大规模分布式训练、EasyDL零门槛高精度AI服务定制、机器学习开发环境BML CodeLab等诸多内容。四场演讲将会在GTC 2020轮番上阵,让我们来看一下吧!
演讲一、飞桨推理引擎性能优化
12月15日下午17:00的GTC 2020《深度学习平台及应用》分论坛上,百度资深研发工程师商智洲将会为我们率先带来飞桨推理引擎性能优化的演讲。
此次演讲将介绍飞桨原生推理引擎Paddle Inference,以及该引擎中针对GPU推理做的优化工作。飞桨推理引擎是飞桨模型推理部署的重要基础,已在百度内部各核心业务线和众多ToB交付的AI服务中经过充分验证。我们首先介绍飞桨推理引擎针对GPU推理所做的通用优化措施,如OP融合、显存复用、TensorRT 集成、混合精度推理等;同时会以文心(ERNIE)模型的推理优化为例来说明针对特定模型的推理优化方法及效果。
此次演讲内容将会以深度学习推理技术的优化和部署为主,在活动进行的同时,飞桨讲师将会与参会者在线互动,为听众们答疑解惑。
演讲二、大规模分布式训练进展与应用
12月17日《云计算和消费者互联网》分论坛中,百度主任研发架构师董大祥,将为大家揭秘飞桨框架大规模分布式训练进展与应用的秘密。此次演讲主题将会围绕飞桨框架的大规模训练与应用展开,介绍大规模分布式训练的功能、性能、以及在产业中的实践。当前飞桨框架2.0RC版本已经release并邀请广大用户试用。
演讲三、用EasyDL零门槛定制高精度AI服务
12月15日《深度学习平台及应用》分论坛上,百度资深研发工程师胡鸣人,百度高级研发工程师刘杰,两位老师将会携手为大家讲述高精度AI服务的打造。
此次演讲将会从实际需求背景出发,介绍EasyDL产品和核心技术特性;介绍EasyDL效果优化的各项实现以及NVIDIA GPU与EasyDL的结合带来的优化;演讲最后还将解析基于GPU进行EasyDL模型部署和实操。
这一课程会更加注重内容的细粒度,基于深度学习技术用例和成功案例,为参会者从0开始讲解如何实现优化和部署,让每个人都有机会接触并掌握相关技术知识。
演讲四、面向机器学习的开发环境BML CodeLab介绍
在12月15日的《GPU开发与工具》分论坛中,百度AI 开发平台总架构师马如悦将会为开发者分享面向机器学习的开发环境BML CodeLab介绍。
此次演讲将会围绕开发环境BML CodeLab展开,帮助开发者实现零门槛机器学习开发。演讲的内容主要分为三个部分:
1. 交互开发环境BML CodeLab的背景和特色,并快速入安装和使用。BML CodeLab基于JupyterLab改进优化,可灵活部署到开发者本地单机、IDC 机器、云上托管资源等。在性能上做了高度优化,新增众多企业级特征,并在单机资源受限时无缝扩展到云上集群。
2. 高性能数据科学引擎的原理,用于提升分析建模速度。利用GPU和CPU众核并行加速及混合计算、超大数据处理、高效数据存储等技术,让数据科学开发,既保持单机的简单易用,又媲美分布式系统的处理能力。内置高性能引擎的BML CodeLab,性能比开源产品提升近十倍。
3. 内置的易用开发插件,用于提升开发效率。基于开源Jupyterlab扩展机制,BML CodeLab 集成众多功能丰富、简单易用的开发工具。如:轻量级机器学习。应用开发小程序插件,通过简单Python代码,将分析训练成果发布成高性能应用; AI 工作流程插件,管理工作流编排和跟踪实验,提升迭代效率。(一鸣)
最新推荐
更多>