AI Studio 飞桨 零基础入门深度学习笔记4-飞桨开源深度学习平台介绍
- 深度学习框架
- 深度学习框架优势
- 深度学习框架设计思路
- 飞桨开源深度学习平台全景
- 框架和全流程工具
- 模型资源
深度学习框架
近年来深度学习在很多机器学习领域都有着非常出色的表现,在图像识别、语音识别、自然语言处理、机器人、网络广告投放、医学自动诊断和金融等领域有着广泛应用。面对繁多的应用场景,深度学习框架有助于建模者节省大量而繁琐的外围工作,更聚焦业务场景和模型设计本身。
深度学习框架优势
使用深度学习框架完成模型构建有如下两个优势:
- 节省编写大量底层代码的精力:屏蔽底层实现,用户只需关注模型的逻辑结构。同时,深度学习工具简化了计算,降低了深度学习入门门槛。
- 省去了部署和适配环境的烦恼:具备灵活的移植性,可将代码部署到CPU/GPU/移动端上,选择具有分布式性能的深度学习工具会使模型训练更高效。
深度学习框架设计思路
深度学习框架的本质是框架自动实现建模过程中相对通用的模块,建模者只实现模型个性化的部分,这样可以在“节省投入”和“产出强大”之间达到一个平衡。我们想象一下:假设你是一个深度学习框架的创造者,你期望让框架实现哪些功能呢?
相信对神经网络模型有所了解的读者都会得出如 表1 所示的设计思路。在构建模型的过程中,每一步所需要完成的任务均可以拆分成个性化和通用化两个部分。
- 个性化部分:往往是指定模型由哪些逻辑元素组合,由建模者完成。
- 通用部分:聚焦这些元素的算法实现,由深度学习框架完成。
表1:深度学习框架设计示意图
无论是计算机视觉任务还是自然语言处理任务,使用的深度学习模型结构都是类似的,只是在每个环节指定的实现算法不同。因此,多数情况下,算法实现只是相对有限的一些选择,如常见的Loss函数不超过十种、常用的网络配置也就十几种、常用优化算法不超过五种等等。这些特性使得基于框架建模更像一个编写“模型配置”的过程。
飞桨开源深度学习平台
百度出品的深度学习平台飞桨(PaddlePaddle)是主流深度学习框架中一款完全国产化的产品,与Google TensorFlow、Facebook Pytorch齐名。2016 年飞桨正式开源,是国内首个全面开源开放、技术领先、功能完备的产业级深度学习平台。相比国内其他平台,飞桨是一个功能完整的深度学习平台,也是唯一成熟稳定、具备大规模推广条件的深度学习平台。
飞桨源于产业实践,始终致力于与产业深入融合,与合作伙伴一起帮助越来越多的行业完成AI赋能。目前飞桨已广泛应用于医疗、金融、工业、农业、服务业等领域,如 图1 所示。此外在新冠疫情期间,飞桨积极投入各类疫情防护模型的开发,开源了业界首个口罩人脸检测及分类模型,辅助各部门进行疫情防护,通过科技让工作变得更加高效。
飞桨开源深度学习平台全景
飞桨以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,为用户提供了多样化的配套服务产品,助力深度学习技术的应用落地,如 图2 所示。飞桨支持本地和云端两种开发和部署模式,用户可以根据业务需求灵活选择。
概览图上半部分是从开发、训练到部署的全流程工具,下半部分是预训练模型、各领域的开发套件和模型库等模型资源
框架和全流程工具
飞桨在提供用于模型研发的基础框架外,还推出了一系列的工具组件,来支持深度学习模型从训练到部署的全流程。
1. 模型训练组件
飞桨提供了分布式训练框架FleetAPI,还提供了开启云上分布式训练的便捷工具PPoC。同时,飞桨也支持多任务训练,可使用多任务学习框架PALM。
2. 模型部署组件
飞桨针对不同硬件环境,提供了丰富的支持方案:
- Paddle Inference:飞桨原生推理库,用于服务器端模型部署,支持Python、C、C++、Go等语言,将模型融入业务系统的首选。
Paddle Serving:飞桨服务化部署框架,用于云端服务化部署,可将模型作为单独的Web服务。
Paddle Lite:飞桨轻量化推理引擎,用于 Mobile 及 IoT 等场景的部署,有着广泛的硬件支持。
Paddle.js:使用 JavaScript(Web)语言部署模型,用于在浏览器、小程序等环境快速部署模型。
PaddleSlim:模型压缩工具,获得更小体积的模型和更快的执行性能。
X2 Paddle:辅助工具,将其他框架模型转换成Paddle模型,转换格式后可以方便的使用上述5个工具。
3. 其他全研发流程的辅助工具
-
AutoDL:飞桨自动化深度学习工具,自动搜索最优的网络结构与超参数,免去用户在诸多网络结构中选择困难的烦恼和人工调参的繁琐工作。
-
VisualDL:飞桨可视化分析工具,不仅仅提供重要模型信息的可视化呈现,还允许用户在图形上进一步交互式的分析,得到对模型状态和问题的深刻认知,启发优化思路。
PaddleFL:飞桨联邦学习框架,可以让用户运用外部伙伴的服务器资源训练,但又不泄露业务数据。
PaddleX:飞桨全流程开发工具,可以让用户方便的基于PaddleX制作出适合自己行业的图形化AI建模工具
模型资源
飞桨提供了丰富的端到端开发套件、预训练模型和模型库。
PaddleHub:预训练模型管理和迁移学习组件,提供100+预训练模型,覆盖自然语言处理、计算机视觉、语音、推荐四大领域。模型即软件,通过Python API或者命令行工具,一行代码完成预训练模型的预测。结合Fine-tune API,10行代码完成迁移学习,是进行原型验证(POC)的首选工具。
开发套件:针对具体的应用场景提供了全套的研发工具,例如在图像检测场景不仅提供了预训练模型,还提供了数据增强等工具。开发套件也覆盖计算机视觉、自然语言处理、语音、推荐这些主流领域,甚至还包括图神经网络和增强学习。与PaddleHub不同,开发套件可以提供一个领域极致优化(State Of The Art)的实现方案,曾有国内团队使用飞桨的开发套件拿下了国际建模竞赛的大奖。一些典型的开发套件包括:
- ERNIE:飞桨语义理解套件,支持各类训练任务的Fine-tuning,保证极速推理的Fast-Inference API,兼具灵活部署的ERNIE Service和具备轻量方案的ERNIE Tiny系列工具集。
- PaddleClas:飞桨图像分类套件,目的是为工业界和学术界提供便捷易用的图像分类任务模型和工具集,打通模型开发、训练、压缩、部署全流程,助力开发者训练更好的图像分类模型和应用落地。
- PaddleDetection:飞桨目标检测套件,目的是帮助开发者更快更好地完成检测模型的训练、精度速度优化到部署全流程。以模块化的设计实现了多种主流目标检测算法,并且提供了丰富的数据增强、网络组建、损失函数等模块,集成了模型压缩和跨平台高性能部署能力。具备高性能、模型丰富和工业级部署等特点。
- PaddleSeg:飞桨图像分割套件,覆盖了U-Net、DeepLabv3+、ICNet、PSPNet和HRNet等主流的分割模型。通过统一的配置,帮助用户更便捷地完成从训练到部署的全流程图像分割应用。具备丰富的数据增强、主流模型覆盖、高性能和工业级部署等特点。
- PLSC:飞桨海量类别分类套件,为用户提供了大规模分类任务从训练到部署的全流程解决方案。提供简洁易用的高层API,通过数行代码即可实现千万类别分类神经网络的训练,并提供快速部署模型的能力。
- ElasticCTR:飞桨弹性计算推荐套件,提供了分布式训练CTR预估任务和Serving流程一键部署方案,以及端到端的CTR训练和二次开发的解决方案。具备产业实践基础、弹性调度能力、高性能和工业级部署等特点。
- Parakeet:飞桨语音合成套件,提供了灵活、高效、先进的文本到语音合成工具套件,帮助开发者更便捷高效地完成语音合成模型的开发和应用。
- PGL:飞桨图学习框架,原生支持异构图,支持分布式图存储及分布式学习算法,覆盖业界大部分图学习网络,帮助开发者灵活、高效地搭建前沿的图学习算法。
- PARL:飞桨深度强化学习框架,夺冠NeurIPS 2019和NeurIPS 2018。具有高灵活性、可扩展性和高性能的特点,支持大规模的并行计算,覆盖DQN、DDPG、PPO、IMPALA、A2C、GA3C等主流强化学习算法。
模型库:包含了各领域丰富的开源模型代码,不仅可以直接运行模型,还可以根据应用场景的需要修改原始模型代码,得到全新的模型实现。
比较三种类型的模型资源,PaddleHub的使用最为简易,模型库的可定制性最强且覆盖领域最广泛。读者可以参考“Paddle Hub->各领域的开发套件->模型库”的顺序寻找需要的模型资源,在此基础上根据业务需求进行优化,即可达到事半功倍的效果。
在上述概览图之外,飞桨还提供云端模型开发和部署的平台,可实现数据保存在云端,提供可视化GUI界面,安全高效。
飞桨技术优势
与其他深度学习框架相比,飞桨具有如下四大领先优势。
- 开发便捷的深度学习框架:支持声明式、命令式编程,兼具开发灵活、高性能;网络结构自动设计,模型效果超越人类专家。
- 超大规模深度学习模型训练技术:千亿特征、万亿参数、数百节点的开源大规模训练平台;万亿规模参数模型实时更新。
- 多端多平台部署的高性能推理引擎:兼容多种开源框架训练的模型,不同架构的平台设备轻松部署推理速度全面领先。
- 产业级开源模型库:开源100+算法和200+训练模型,包括国际竞赛冠军模型;快速助力产业应用。
支持多端多平台的部署,适配多种类型硬件芯片
训练好的模型需要无缝集成到各种类型的硬件芯片中,如机房服务器、摄像头芯片等。在中美贸易战时日趋紧张的情况下,训练框架对国产芯片的支持显得尤其重要。飞桨走在了业界前列,提供了专门的端侧模型部署工具Paddle Lite。Paddle Lite适配的硬件芯片,以及由Paddle Lite转换的模型与其它主流框架在性能上的优势对比。