毕业论文
您现在的位置: 语言识别 >> 语言识别介绍 >> 正文 >> 正文

阿里云贾扬清大数据AI工程化,让数据从

来源:语言识别 时间:2023/2/17
白癜风有什么药 http://pf.39.net/xwdt/160309/4784149.html

机器之心发布

演讲:贾扬清

近年来,数字经济发展迅速,企业转型背后频频涌现「数字力量」的身影。云计算、大数据、人工智能的快速融合形成了数字经济的新基建,也为数字经济发展带来了新的机遇。

5月20日,阿里巴巴副总裁、阿里云计算平台负责人贾扬清在媒体沟通会做了《科技创新时代的数字力量》演讲,本文对其演讲内容做了精简编辑,以飨读者。

01科技创新时代的数字力量

我们先来认识一家建筑公司。

说建筑公司的原因是,每一次工业革命往前升级、向前发展的背后,最重要的其实是现有行业怎么革新自己的生产力。建筑行业是非常典型的一个例子,今天说了那么多大数据和AI,到底能给他们带来什么样的价值?

这家公司叫中建三局一公司,是国家基建中的核心力量,一直以建筑速度跟效率著称。

30多年以前,年,就以「三天一层楼」建造了深圳第一座超高层地标性建筑、当时「中国高楼之最」——深圳国贸大厦。

年,又以「九天四个结构层」的速度缔造了当时亚洲第一、世界第四高楼——深圳地王大厦,将中国建筑业从一般超高层推向可与世界摩天大楼相媲美的领先水平。

放眼全国乃至世界,都有他们的作品,承建了非常多我们耳熟能详的标杆性建筑:国家体育馆(鸟巢)、央视新址CCTV大楼……除了地标性建筑,他们还建了机场、地铁、高速、医院(医院)、学校(清华美院)、办公大楼(阿里腾讯新浪移动等办公大楼)……

中建三局一公司高效的建筑能力,给我们带来非常大的价值。

几十年过去了,建筑设计变得越来越新,砖瓦结构变成了钢筋混凝土结构,中建三局一公司对建筑行业的理解也一直在向前发展。30多年前,他们依靠人与时间的赛跑;如今,他们依靠数据的流动。去年,中建三局一公司联手阿里云,共同建设数据中台。

造一座高楼,有非常多的物质在流转,从一粒沙子到砖头、玻璃、钢筋、螺丝、各种工程机械,怎么让它们更高效地流转起来,是建筑公司都会遇到的问题。不仅如此,他们还需要考虑怎样提升建造工艺、提升创新的建筑方法,以及通过数字化能力,来管理建筑过程、建筑物料等一系列问题。

阿里云基于一站式数据开发和综合治理平台DataWorks打造的数据中台,为中建三局一公司建设了一个「数字孪生体」,用数据和算法来预测,何时补沙子、何时调配工程机械,以及做其他运营管理方面的事情。

今天,我们看到,中国整个建筑市场有10万家建筑公司,除了中建三局一公司这种大型的标杆企业,还有很多中小型的建筑公司,从业人员共有余万。帮助这些中小型企业从传统的、小作坊式的、刀耕火种的模式变成像中建三局一公司那样,是阿里云希望在数据方面做的一些事情。

我们相信把阿里云数据中台建设的核心能力,和各行各业的专业知识结合起来之后,可以帮助更多企业,就像中建三局一公司一样实现数字化转型。

02「一体两面」,助力企业用好数据

虽然每个人都在提大数据,每个人也都觉得自己在用大数据,但其实谁也不知道大数据到底该怎么用。

阿里云打造了一系列将数据用起来的「武器」,希望通过云上数据综合治理及智能化,赋予企业数字力量。

企业经常面临的挑战是,建了很多零碎的数据系统,表格、Word、照片、视频等异构数据存在Excel、数据仓库等不同的数据库里,最后成为「数据孤岛」。

因此,企业在建设数据中台时,经常会在技术、业务、组织三方面遇到挑战。技术上,数据怎么打通;业务上,不同口径的数据如何总结;组织上,怎么把存放在不同地点的数据统一管理起来。

商业公司经常遇到的一个挑战是——算收入会面临财务、证监会等各种各样的不同口径,运营同学需要去看不同情况的营业额,这些最后都会下沉到一句SQL语言或者一个数据任务上。这些任务如果不一致,最后就会出现数据的不一致,结果的不一致,口径的不一致,都是一系列问题。

从技术角度来讲,我们逐渐构建了一套完整的数据处理体系,叫「一体两面」。

「一体」是指一体化的数据开发和数据综合治理平台DataWorks,各种各样的行业应用都基于这个平台搭建。

DataWorks迄今为止已经累积了约8万名用户。每天阿里大概有1/4的员工在DataWorks上做数据开发和应用。

一体化的开发平台下,有两种不同的数据组织形态——数据仓库和数据湖,即所谓「两面」。

「数据仓库」的概念很早以前就有了,可以将其理解为一个巨大的Excel表格或者一堆巨大的Excel表格。阿里很早以前就建了自己的数据仓库MaxCompute,它是「飞天」的重要组成部分之一,已经沉淀了非常好的大规模数据仓库能力。

在MaxCompute的演进过程中,对数据进行实时分析的需求诞生了。比方说,双11时,促销策略要根据用户的购买行为进行及时调整。于是,几年前,我们开发了一套实时计算引擎Flink。Flink最开始是由德国一个团队做的,现在阿里巴巴和德国团队一起,继续把Flink作为一个开源的流计算实施标准往前推进。

以前,我们只是对数据进行总结,出报表;但越来越多的数据开始需要实时的服务,比方说「猜你喜欢」,既需要实时化,也需要对用户的历史行为做实时分析,然后迅速对相关产品做服务。

前几年开始,我们在「T+1」计算的离线数仓基础上,做了实时数仓+服务一体化的应用——交互式分析产品Hologres,它在双11支撑了非常多的实时决策。淘宝、天猫的决策层可以通过Hologres实时看到每一个商品品类在每一个地区的实时的销售额情况,当发现销售额/触达率与预期不一致时,可以及时调整策略。

随着异构数据越来越多,在我们做各种服务的时候,不再是表格那么精准的数据呈现形式,可能是像日志(log)的形式,这些图片、视频、语音等数据形态对传统的数据仓库来说就不是那么合适了。记得我们年在谷歌刚开始做机器学习的时候,把一堆图片存在了数据仓库里,结果发现,所有图片都是一堆字符串,看不见图片的内容。

于是,「数据湖」的概念兴起了。先不着急把数据都存成Excel表格,该是Word就是Word,该是图片就是图片,该是视频就是视频,不管数据来源和格式,先把这些数据都放到一个湖里。

但业务数据,有些存在湖里,有些存在仓里,怎么合起来统一做分析和处理?去年,我们提出「湖仓一体」,在传统的数据湖和数据仓库上建一个数据中台。

这对于创新业务来说,没什么问题。但现有非常多的企业,本身已经有数据仓库了,那如何把已有的资源利用起来?

我们在技术侧做了很多工作。通过最底层的存储资源、计算资源的打通,让大家能够更加容易地从数据仓库的角度存取数据湖里的信息,或者在数据湖上构建一系列开源引擎,同时分析数据湖和数据仓库里的数据。

03AI加持,挖掘数据的价值,变「成本」为「资产」

管好数据的同时,我们发现,数据量越来越大,数据的单位价值越来越低。

因此,我们开始思考,怎么挖掘数据的价值,帮助企业创新业务、提高效率,将数据从成本变成资产。

AI可以让数据更加智能。AI算法不只能做数据的总结,还可以做分析和决策。

但并不是所有的企业都具备将AI变为生产力的能力,为自己所用。Gartner的调查研究发现,只有53%的项目能够从人工智能(AI)原型转化为生产。AI要成为企业生产力,就必须以工程化的技术来解决模型开发、部署、管理、预测、推理等全链路生命周期管理的问题。

我们总结发现,AI工程化领域有三大亟待推进的事情:数据和算力的云原生化,调度和编程范式的规模化,开发和服务的标准化普惠化。

第一,从供给角度看,AI工程化是数据和算力的云原生化。

智能时代是靠数据和算力来驱动的。无论是计算机视觉、自然语言处理,还是其他的AI系统,都与数据量密不可分。

上世纪九十年代,手写体邮政编码已经在用AI识别,那时用来训练AI模型的数据量仅有10M左右。阿里与清华大学不久前合作发布的超大规模中文多模态预训练模型M6,是用2TB图像、GB语料数据预训练而成的。今天,在产业界,训练一个AI模型需要的数据量通常会更大。

OpenAI曾做过一个统计,从年做出AlexNet,到年DeepMind做出AlphaGoZero,对于计算量的需求增长了约30万倍。

根据摩尔定律,每18个月,CPU单核的计算能力就会增长一倍。但年前后,摩尔定律就开始「失效」,算力的增速开始逐渐变缓。

可以看到,随着数据量越来越大,模型变得越来越精准、高效且复杂,无论是在数据还是计算方面,都需要有一个更大规模、更大体量的底座,来支撑上层AI的需求。而云计算能够在数据和算力上提供更强的支持。

第二,从核心技术的角度看,AI工程化是调度和编程范式的规模化。

因为大规模、大体量底座的背后,往往面临两个成本问题:

一个是资源的成本。训练一个大模型,往往需要一堆GPU来做大规模计算。英伟达最新的DGX-2,售价大概在一台20万美元,真的贵。OpenAI训练模型大概需要块GPU、64台机器。如果搭一个专门用来做大规模训练的集群,可能是小一个亿的成本。这个时候,如果跑去跟公司、研究院或者跟政府说,我需要一个亿,就是为了搭一个集群,这个集群就是为了训练一个模型,这个模型拿来还不知道怎么用,我得先训练出来看看。这显然是很麻烦的事情。

管理大规模的集群和大规模的系统,需要用到非常典型的「削峰填谷」方法,考验我们是否能够把AI计算任务掰开、揉碎,变成一小块一小块的任务,部署在资源空闲的机器上。这背后是一个巨大的训练任务,AI工程师需要做非常多的工作。

我们在训练M6模型的时候没有买新的机器,就是在现有的生产集群上面,利用「潮汐效应」,把计算量提出来,用来训练模型。

另一个是人的成本。AI没有SQL那么清晰干净的、以目标导向的框架,比如,写一句SQL,就能驱动MaxCompute等计算引擎拉一堆机器来做运算;AI也不像在线服务一样,可以实现非常简单的、一台机器和几台机器的简单复制,机器间不需要交互,操作简单。

AI程序要在各种各样的机器、资源之间(GPU与GPU间,或GPU与CPU间)捣腾数据,要把一个算法(一个数学公式)放到参数服务器上,告诉机器A何时与机器B说话,机器B何时与机器C说话,并且最好是快一点。于是,AI工程师就得写一堆无比复杂、很多人看不懂的代码。

AI工程师都听说过数据并行、模型并行等概念,这些概念下需要有一个相对简单的软件编程范式,让我们更加容易把集群以及计算的需求切片,把Computer跟Communication比较好地分配。但是编程范式今天还没有达到一个让彼此都很好理解的程度。因此,人力成本非常高。

也就是说,在大量的数据和算力基础上,一个非常明显的需求是如何更好地做到资源调度和资源调配,以及如何让工程师更容易撰写分布式编程范式,特别是如何来规模化,这是AI工程化的第二个体现。

我们设计了一个相对简单、干净的编程框架Whale,让开发者能够更容易地从单机的编程范式跳到分布式的编程范式。比如,只需告诉Whale,将模型分为4个stage,Whale就会自动把这些stage放到不同的机器上去做运算。

第三,从需求或者出口的角度看,AI工程化是开发和服务的标准化、普惠化。

AI做了非常多有意思的模型,为了使这些模型能够更加紧密地应用在实际场景中,还需要很多工作。但并不是每个人都有时间来学习AI如何建模,如何训练和部署等。

所以,我们一直在思考,如何让大家更容易上手这些高大上的AI技术。

阿里云机器学习平台PAI团队,基于阿里云IaaS产品,在云上构建了一个完整的AI开发全生命周期的管理体系,从最开始写模型,到训练模型,到部署模型。其中,Studio平台提供可视化建模,DLC平台(DeepLearningContainer)提供云原生一站式的深度学习训练,DSW平台(DataScienceWorkshop)提供交互式建模,EAS平台(ElasticAlgorithmService)提供更简易、省心的模型推理服务。我们的目标是,希望AI工程师能在几分钟之内就开始写第一行AI代码。

迄今为止,阿里云通过大数据、AI平台已经服务了各行各业的客户,宝钢、三一集团、四川农信、太平洋保险、小红书、VIPKID、斗鱼、亲宝宝等。我们希望通过我们的大数据和AI能力,给企业提供升级的动力。

转载请注明:http://www.0431gb208.com/sjszlfa/3376.html