数据规划大数据平台规划技术方案v4.pptx
《数据规划大数据平台规划技术方案v4.pptx》由会员分享,可在线阅读,更多相关《数据规划大数据平台规划技术方案v4.pptx(70页珍藏版)》请在悟道方案网上搜索。
1、数据规划:大数据平台规划技术方案,1,目录,1,2,背景及问题分析,大数据平台规划方案,架构演进历史及现状业务背景及驱动力现状问题分析相关规范及总部要求,2,经营分析系统架构演进08年之前的系统现状,200X年完成数据仓库重构后到200X年底,数据仓库架构相对稳定,报表库:省级业务部门报表和取数,主仓库:基础数据模型和一经、KPI等关键应用,专题库(历史库):重入网、套餐分析等专题应用和仓库重要历史数据在线存储,前台库:主要存放门户配置信息和KPI数据,OLAP :多维分析数据库,主题分析结果数据,3,经营分析系统架构演进-业务驱动,为了支撑业务发展,在XX规范和本省业务需求驱动下,进行集市的
2、建设和扩容,VGOP:20XX年根据XX规范要求建设,支撑数据业务发展,ESOP:20XX年根据XX规范要求建设,支撑政企业务发展,数据挖掘平台:20XX年建设,提供体系化数据挖掘专业能力,支撑数据挖掘应用,如一人多卡,地市数据分析中心20XX年启动地市集中化建设项目,加强地市一线支撑,创新平台:20XX年建设,承载地市试点应用,如存量维系、校园市场分析等,数据挖掘平台,4,经营分析系统架构演进-架构驱动,随着数据源的不断引入和业务自身的发展,数据仓库也在不断扩容,以满足业务发展需求,主仓库:硬件从P690升级到P595、P780,其中石桥机房由P780承载的主仓正在建设中;,历史库:历史数据
3、拆分,专题库转型历史库;,ETL:201X年从主仓拆分到接口机,减轻详单拆分合并带来的计算开销;,应急库:因每日数据变化量大,主仓无法进行系统容灾,201X年开始建设应急库,实现应用级容灾,保障高可用;,接口工具:201X年建设,加强仓库、集市间数据交互管理;,互联网日志Hadoop集群:201X年引入网络数据,支撑流量经营重点应用落地;,5,各系统定位,主仓库,应急库,历史库,地市数据分析中心,负责基础数据模型的处理并承载KPI、一经等及时性较高的应用,数据仓库的应用级容灾,目前还临时承载流量经营相关基础模型,数据仓库的历史数据存储、客服集市和重入网、套餐分析等专题,面向地市的自助报表、取数
4、机器人、营销快点吧等自助应用,创新应用孵化平台,报表库,VGOP,省公司指导、地市试点、各集成商承建的各类创新应用,如存量维系、校园市场分析、流量经营等,主要满足省级业务部门的报表和临时统计需求,面向数据部的增值业务物理数据集市,ESOP,数据挖掘平台,面向政企客户部的物理数据集市,数据挖掘专业平台,如一人多卡、财务扩展平台、终端偏好分析等,数据仓库,数据集市,数据仓库主要负责基础数据模型的处理,承载少量及时性较高应用,数据集市的基础数据来源于数据仓库,并在此基础上支撑端到端应用,历史库是从时间维度上对数据仓库数据进行切割,部分集市为部门集市,以服务部门为切割维度,部分集市为专业集市,以专业功
5、能为切割维度,经营分析系统各子系统可归纳为数据仓库和数据集市两大类,数据仓库根据存储数据的周期不同,分为主数据仓库和历史库,数据集市根据服务的部门不同和承载的专业能力不同,分为部门集市和专业集市,本次项目重点调整范围,厂商分布说明:,亚联,华为,思特奇,TD,亚联、华为、思特奇、东信北邮,6,光纤交换机IBM2109-M48,历史库2*P595,主仓库2*P595,应急库4*P570,互联网日志Hadoop集群,ETL/接口2*P595,报表库2*P595,VGOP,新主仓2*P780,ESOP2*P690,Teradata,光纤交换机ED-48000B,千兆局域网交换机,VGOP,历史库2*
6、DMX3,主仓库DMX3,ESOPDS8300,应急库DMX4,ETL/接口DS8300,报表库DS8300,WEB服务器 PC Server,新主仓DS8700,地市数据分析中心6*1/2 P750+2*1/2 P595,创新应用平台4*1/2 P595,WEB服务器刀片,地市数据分析中心1*DS8700+1*DMX4,创新应用孵化平台DS8300,枢纽楼机房,石桥机房,滨江机房,DCN,经营分析系统硬件架构, ,在建,22台小机: P595主机11台、 P570主机4台、 P780主机2台、P750主机3台、P690主机2台,5000w tpmC11套存储: EMC DMX系列存储5套、I
7、BM DS系列存储6套,裸容量1200T,可用容量900T,7,经营分析系统数据架构现状,面向业务的应用结果数据汇总,如DW层日新增用户通话信息汇总生成新增用户日通话报表,供前端直接读取;,对DWD层进行主题内轻度汇总,根据业务需求舍弃部分维度,实现轻度汇总,如计费话单日汇总将话单中时间戳信息汇总生成时段信息;对轻度汇总的结果进行跨主题的关联,如服务域中的用户信息关联事件域中的计费语音话单汇总结果,生成日新增用户通话信息;,仓库明细数据,对ODS数据进行清洗、转换、按业务归类形成XX规范要求的7大概念域;如将用户资料信息归类为服务域、将计费语音话单归类于事件域;,ODS层存储的是从外围系统采集
8、的接口数据,与外围系统的数据结构基本保持一致,如用户资料信息、计费语音话单;,ST层,DW层,DWD层,ODS层,参与人,事件,服务,资源,帐务,营销,财务,KPI,主题,报表,一经,专题,精确营销模型,BOSS,CRM,VGOP,财务,网管,参与人,事件,服务,资源,帐务,营销,财务,个人客户统一视图,XX客户统一视图, ,8,主仓库:数据来源于BOSS、CRM等源系统,可用空间51.6T,已用空间46T;应急库:除包含主仓库全部数据外,还包含网络数据,可用空间87T,已用空间60T;历史库:主要存储主仓库处理后的历史数据,详单保留3+1月,其他数据6-12月不等,可用空间114.8T,已用
9、空间90T。,经营分析系统各子系统数据分布-仓库数据流向,ETL,MIS,BOSS,CRM,业务平台,结构化数据,互联网,半/非结构化数据,DPI,信令,信令/DPI/互联网,ST,DW,DWD,ODS,ST,DW,DWD,ODS,ST,DW,DWD,互联网,主仓库,应急库,历史库,Hadoop集群,9,经营分析系统各子系统数据分布-数据仓库数据分布,10,经营分析系统各子系统数据分布-历史库数据分布,11,接口工具/JDBC,经营分析系统各子系统数据分布-集市数据流向,主仓库/应急库/历史库,ETL,MIS,BOSS,CRM,业务平台,结构化数据,互联网,半/非结构化数据,DPI,信令,互联
10、网,报表库,地市数据中心,创新平台,数据挖掘平台,VGOP,ESOP,前台库,OLAP,报表工具(Dblink方式),地市数据分析中心、创新应用孵化平台在集中化的建设过程中为了地市已有应用的迁移,其数据来源除了数据仓库外,还允许从BOSS、CRM直接抽取数据报表库因先于数据仓库建设,也存在从BOSS、CRM直接抽取数据的情况数据挖掘平台等集市的数据来源是数据仓库,不存在从BOSS、CRM直接抽取数据的情况,12,经营分析系统各子系统数据分布-地市中心数据分布,基础数据包括从仓库和外围数据源直接抽取的数据,包括客户资料、产品、订购、工单、账单和详单等,集市中产生的数据,主要是各地市开发的报表数据
11、和临时取数数据,13,经营分析系统各子系统数据分布-创新平台,根据专题需要从仓库和源系统直接抽取的数据,主要包括客户资料、订购、产品和计费汇总数据,不包括计费详单,集市产生的数据,主要是各专题产生的应用结果数据,14,经营分析系统各子系统数据分布-报表、挖掘平台,基础数据包括仓库模型数据和源系统抽取的数据,包括除详单外的CRM、BOSS主要数据,仓库同步的基础数据,主要是客户资料、订购关系等,仓库同步的详单数据,平台产生的专题应用结果数据,报表库产生的数据,主要是报表结果数据等,15,目录,1,2,背景及问题分析,大数据平台规划方案,架构演进历史及现状业务背景及驱动力现状问题分析相关规范及总部
12、要求,16,流量经营时代带来的大数据挑战,随着互联网的不断发展,智能终端迅速普及、数据流量迅猛增长,流量收入占比快速攀升,流量经营已是运营商战略转型的重点。而流量经营带来的大数据挑战是IT系统架构亟待解决的问题,互联网日志 通过综合网关获得CMWAP/CMNET两类日志,日话单记录数达到40亿条,奠定用户内容偏好分析的基础;,位置信息 通过网络A口全量引入位置变更信息,日话单记录数达到12亿条,奠定活动轨迹行为分析的基础;,Gn口数据 通过DPI设备从Gn口全量获得用户的应用使用行为信息,如QQ、微博、微信等,日话单记录达到70亿,奠定用户应用偏好分析的基础;,1、为了支撑流量经营的发展,引入
13、DPI、互联网日志和位置信令等多种网络数据源,2、网络数据与传统数据相比有非结构化特征,传统计费话单,新增大数据,3、与传统数据相比,网络数据在数据量上有质的变化,并且还在快速增长,根据思科2011-2016年度网络猜测陈述,预计到2016年网络数据流量平均年复合增长率为78%,17,大数据的特点和对IT系统的核心要求,大数据技术将被设计用于在成本可承受(economically)的条件下,通过非常快速(velocity)的采集、发现和分析,从大数据量(volumes)、多类别(variety)的数据中提取价值(value),将引起IT 领域新一轮的技术与架构的变革。,数据量巨大全球在2010
14、 年正式进入ZB 时代,IDC预计到2020 年,全球将总共拥有35ZB 的数据量,18,传统IT架构应对大数据挑战存在的不足,存储层: 1)数据量不断增加,带来的IO瓶颈;2)容易造成数据分布不均匀,导致IO热点。 网络层: IO传输带宽不足,无法快速传输大量数据到服务器。主机层:接收过多数据进行处理,CPU、内存成为瓶颈。,=,=,=,传统小型机+高端存储的数据库架构存在性能、成本、扩展性上的瓶颈,无法满足大数据时代在低成本前提下在海量、多样的数据中实时地提取价值的要求。因此,大数据时代的IT架构需要有所转变:,19,目录,1,2,背景及问题分析,大数据平台规划方案,架构演进历史及现状业务
15、背景及驱动力现状问题分析相关规范及总部要求,20,现状分析一:现有架构在处理海量数据时存在系统瓶颈,无法满足业务要求,数据采集,接口机采集,Hadoop处理,应急库DB2入库、处理,48时,0时,24时,宽广实时采集数据,次日4点完成前日完整数据采集,每日数据70亿,Hadoop每小时从接口机加载数据,汇总后加载入应急库,次日12点完成前日完整数据处理,入库数据量5亿,应急库对前日数据进行批处理,次日21点完成,DPI,次日21点,看到前日完整数据处理结果,宽连实时从东方通信采集数据并进行处理,处理后数据分发到接口机,次日17点完成数据分发,互联网日志,应急库次日17时发起入库,T+2日10点
16、完成入库,72时,T+2日18点看到T+0日完整数据处理结果,应急库T+2日11点开始处理数据,处理8-10小时,T+2日18时完成处理,接口机每小时从宽广采集数据,次日7点完成前日完整数据采集,DPI需要21小时后可以看到昨日数据,互联网日志需要42小时,位置信令需要16小时,业务部门要求9点钟前看到昨日业务指标,21,当日(T+0日),次日(T+1日),T+2日,接口机实时接收宽连分发的数据,次日17时完成数据接收,每日数据量40亿,实时、准实时,批处理,现状分析一(续):现有架构在处理海量数据时存在系统瓶颈,无法满足业务要求,数据采集,接口机采集,Hadoop处理,应急库DB2入库、处理
17、,48时,0时,24时,中创实时采集数据,次日3点完成前日完整数据采集,每日数据库12亿,接口机实时从中创采集数据,次日3点完成前日数据采集,位置信令,Hadoop次日3点开始从接口机加载前天全量数据,并进行批量处理,次日12点完成处理后加载入应急库,入库数据量2.5亿,应急库次日12点开始处理,次日16点完成处理,72时,12,次日16时看到前日完整数据,应急库当日10点启动入库程序,实时入库,次日2点完成前日完整数据入库,入库数据量6.5亿,GPRS详单,次日7点完成前日数据处理,应急库次日2点钟开始处理前日完整数据,次日7点完成处理,16,计费实时分发到接口机次日2点完成前日数据分发,数
18、据量每日6.5亿,DPI需要21小时后可以看到昨日数据,互联网日志需要42小时,位置信令需要16小时,业务部门要求9点钟前看到昨日业务指标,22,当日(T+0日),次日(T+1日),T+2日,接口机实时接收计费分发的详单,次日2点完成前日完整数据接收,实时、准实时,批处理,现状分析一(续):系统瓶颈分析-接口机,目前,外围数据源与数据仓库,数据仓库与各数据集市之间的交互都依靠接口机,面对百亿级数据,1G带宽的接口机成为数据传输瓶颈,影响数据传输的及时性。,1、交互数据量大:Jfrdetl1主机平均每日数据交互量约为5t,平均75MB/s,jfrdetl2主机平均每日数据交互量为4t,平均70M
19、/S。2、业务流程相对集中:KPI、一经等业务对数据及时性要求高,大量业务运行时段相对集中,网络带宽压力进一步加剧,导致部分业务数据延迟 ,月初峰值能达到8595M/s。3、交换机带宽不足,现有设备扩容困难:应急库建设期间,现有交换机经过反复测试,只找到4个高速口,1台主机只能分配1个高速口,达不到高可用要求,接口机的扩容要求在现有条件也很难做到,23,现状分析一(续):系统瓶颈分析-应急库,3、网络:jfrddw11和jfrddw13的网卡收发容量峰值时达到了规划值的90%-95% ,jfrddw12和jfrddw14表现正常。其中1号机负责详单入库、DPI和位置信令数据入库,3号机负责传统
20、数据入库(客户资料、订购等)和GPRS上网日志数据入库。,2、存储:存在热点盘,部分磁盘IOPS较多,13%的磁盘(共80块)需要处理40%的主机IO。主要处理的是写集中的IO,后端磁盘的繁忙导致写数据在Cache中有堆积,会导致写IO延迟增加。热点盘主要是数据库日志读写引起。,目前综上所述,主机、网络、存储、数据库都表现为较为繁忙,均存在瓶颈,短期需要对关键瓶颈进行优化来缓解系统压力,但并不能彻底解决问题,从长期看需要考虑系统的扩容或者架构调整。,性能分析结论,4、主机: 每日7-13点,主机内存使用率较高,达到90%,CPU使用率也较高(usr+sys维持在90%-100%),其它时段内存
21、、CPU使用正常。可以得出的结论是系统在上午7点到13点之间系统压力大,5、数据库:通过分析数据,可以看到应急库存在较多的排序溢出,存在排序溢出问题,排序溢出率较高,超过3%的正常值,最高时超过80%,说明系统目前的排序参数设置不合理,亟需调整。,24,现状分析二:数据分布缺乏规则,造成数据冗余,数据交互缺乏统一管理,造成数据质量隐患和数据交互延迟,数据分布缺乏规则,数据仓库、各数据集市等共有4份ODS数据,存在冗余,造成空间浪费;数据交互缺乏统一管理,仓库、集市存在多套ETL工具,接口形式存在文件接口、dblink等多种方式,同时集市违反统一数据源原则直接从源系统抽取数据的情况,不仅反复抽取
22、对BC库造成压力,同时存在数据不一致的隐患,影响数据的准确性;现有ELT模式将数据在库内进行清洗转换工作,不仅增加了数据仓库的处理负荷,而且导入和导出的动作影响到仓库与集市数据交互的及时性。,挖掘应用,数据挖掘(13T),DW,DWD,报表应用,报表库(80T),DW,ODS,地市个性化应用,地市中心(50T),DW,ODS,创新应用,创新平台(31T),DW,VGOP应用,VGOP数据,ESOP应用,ESOP数据,一经、KPI、MIS应用,数据仓库(46T),DW,DWD,ODS,ODS,CRM/BOSS,1,2,3,4,12T,19T,11T,0.18T,23T,12T,8T,VGOP(5
23、0T),ESOP(7T),16T,1.5T,报表工具,实现方式为存储过程+dblink,共部署6套,报表库1套,地市中心四中心四套,创新平台1套,合计1982个接口,仓库/应急ETL,实现方式C+程序+文件接口,合计1666个接口,25,接口工具,实现方式java程序+文件接口,合计815个内部接口,目前历史库数据存储方式依然为传统的小型机+磁盘阵列的模式,这种模式下随着相关经分系统数据量的快速增长而需要不断的进行系统扩容,硬件投资和运维成本较高。,硬件及运维成本分析,目前经分历史库的数据存储周期缺乏统一管理,保持周期长短不一,同时容量已趋近极限,各类详单的存储周期满足不了长周期深度趋势分析的
24、业务需求,其中GPRS计费详单还以年均60%的速度快速增长,网络侧的历史数据目前并没有放入历史库中,由于其数据特点(百亿级、增长快),采用传统数据库构建模式建设历史库,成本将过于昂贵。,现状分析三:数据生命周期缺乏管理,历史数据存储不满足XX规范要求和业务长周期趋势分析需求,1、数据存储周期缺乏规划,容量趋于饱和,存储周期不满足业务长周期趋势分析需求:历史库各类详单要求存储至少6+1月,目前只保存3+1月,占总数据量的62%,2、GPRS详单数据量占全部详单数据量51%,而数据还在快速增长,年增速60%:,3、海量网络侧数据目前没有放入在历史库,26,目录,1,2,背景及问题分析,大数据平台规
- 温馨提示:
建议用WPS软件(.pptx、.docx)打开文档,少量文档使用Microsoft(.ppt、.doc)打开易出错。
- 配套讲稿:
如PPT文件的首页显示word图标打开文档,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据规划 计划平台 技术方案
