欢迎来到三一办公! | 帮助中心 三一办公31ppt.com(应用文档模板下载平台)
三一办公
全部分类
  • 办公文档>
  • PPT模板>
  • 建筑/施工/环境>
  • 毕业设计>
  • 工程图纸>
  • 教育教学>
  • 素材源码>
  • 生活休闲>
  • 临时分类>
  • ImageVerifierCode 换一换
    首页 三一办公 > 资源分类 > DOCX文档下载  

    要掌握的大数据计算技术.docx

    • 资源ID:1959725       资源大小:132.75KB        全文页数:8页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    要掌握的大数据计算技术.docx

    01离线批处理这里所说的批处理指的是大数据离线分布式批处理技术,专用于应对那些一次计算需要输入大量历史数据,并且对实时性要求不高的场景。目前常用的开源批处理组件有MapReduce和SPark,两者都是基于M叩RedUCe计算模型的。LMapReduce计算模型MapReduce是Google提出的分布式计算模型,分为Map阶段和Reduce阶段。在具体开发中,开发者仅实现map()和reduce。两个函数即可实现并行计算。MaP阶段负责数据切片,进行并行处理,RedUCe阶段负责对MaP阶段的计算结果进行汇总。这里举一个通俗的例子帮助你理解。假如现在有3个人想打一种不需要36的扑克牌游戏,需要从一副扑克牌中去掉这些牌,过程描述如下:第一步,将这一副牌随机分成3份,分给3个人,然后每个人一张张查看手中的牌,遇到36的牌就挑出去;第二步,等所有人都完成上面的步骤后,再将每个人手上剩余的牌收集起来。在这个过程中,第一步操作属于MaP阶段,相当于对每张牌做一次判断(映射、函数运算),是否保留;第二步属于RedUCe阶段,将结果汇总。MaPRedUCe数据流图如图1所示C输入图IMaPRedUCe数据流图MapReduce处理的数据格式为键-值格式,一个MapReduce作业就是将输入数据按规则分割为一系列固定大小的分片,然后在每一个分片上执行MaP任务,MaP任务相互独立,并行执行,且会在数据所在节点就近执行;当所有的MaP任务执行完成后,通过缓存机制将分散在多个节点的键值相同的数据记录拉取到同一节点,完成之后的RedUCe任务,最后将结果输出到指定文件系统,比如HDFS、HBaseo基于以上解释和描述,可以看出MaPRedUCe不适合实现需要迭代的计算,如路径搜索。2.SparkSpark是基于内存计算的大数据并行计算框架,最初由美国加州大学伯克利分校的AMP实验室于2009年开发,于2010年开源,是目前最主流的批处理框架,替代了MapReduceo整个SPark项目由四部分组成,包括SParkSQL、SparkStreamingsMLlib、Graphx,如图2所示。其中SParkSQL用于OLAP分析,Streaming用于流式计算的(微批形式),MLlib是SPark的机器学习库,GraPhX是图形计算算法库。SPark可在HadooPYARN、MesosxKUbemeteS上运行,可以访问HDFS,AlluxioCassandraxHBaSe等数据源OSparkSQLSparkStreamingMLlib(machinelearning)GraphX(graph)ApachcSpark图2SPark组件SPark使用先进的DAG(DirectedAcyclicGraph,有向无环图)执行引擎,支持中间结果仅存储在内存中,大大减少了IO开销,带来了更高的运算效率,并且利用多线程来执行具体的任务,执行速度比MaPRedUCe快一个量级。在SPark中,SPark应用程序(APPIiCatiOn)在集群上作为独立的进程集运行,由主程序(称为DriVer)的SParkConteXt中的对象协调,一个Application由一个任务控制节点(Driver)和若干个作业(Job)构成。Driver是Spark应用程序main函数运行的地方,负责初始化Spark的上下文环境、划分RDD,并生成DAG,控制着应用程序的整个生命周期。Job执行MaPRedUCe运算,一个JOb由多个阶段(Stage)构成,一个阶段包括多个任务(Task),TaSk是最小的工作单元。在集群环境中,DriVer运行在集群的提交机上,TaSk运行在集群的WorkerNOde上的EXeCUtor中。EXeCUtOr是运行在SPark集群的WorkerNode上的一个进程,负责运行Task,EXeCUtor既提供计算环境也提供数据存储能力。在执行过程中,APPIiCatiOn是相互隔离的,不会共享数据。SPark集群架构示意图如图3所示。WorkerNode图3SPark集群架构具体来说,当在集群上执行一个应用时,SParkCOnteXt可以连接到集群资源管理器(如YARN),获取集群的WorkerNode的EXeCUtor,然后将应用程序代码上传到Executor中,再将Task发送给Executor运行。Spark的核心数据结构是RDD(ResilientDistributedDataset,弹性分布式数据集),只支持读操作,如需修改,只能通过创建新的RDD实现。02实时流处理当前实时处理数据的需求越来越多,例如实时统计分析、实时推荐、在线业务反欺诈等。相比批处理模式,流处理不是对整个数据集进行处理,而是实时对每条数据执行相应操作。流处理系统的主要指标有以下几个方面:时延、吞吐量、容错、传输保障(如支持恰好一次)、易扩展性、功能函数丰富性、状态管理(例如窗口数据)等。目前市面上有很多成熟的开源流处理平台,典型的如StOrm、Flink、SparkStreamingo三者的简单对比如下:Storm与Flink都是原生的流处理模型,SparkStreaming是基于Spark实现的微批操作;SparkStreaming的时延相对前两者高;Flink与Streaming的吞吐量高,支持的查询功能与计算函数也比StOrm多。总体来说,Flink是这三者中综合性能与功能更好的流平台,当前的社区发展也更火热。LFlink简介Flink最初由德国一所大学开发,后进入APaChe孵化器,现在已成为最流行的流式数据处理框架。FIink提供准确的大规模流处理,支持高可用,能够7x24小时全天候运行,支持exactly-once语义、支持机器学习,具有高吞吐量和低延迟的优点,可每秒处理数百万个事件,毫秒级延迟,支持具有不同的表现力和灵活性的分层API,支持批流一体。2.Flink的架构Flink是一个分布式系统,可以作为独立群集运行,也可以运行在所有常见的集群资源管理器上,例如HadoopYARN、ApacheMesos和KubernetesoFlink采用主从架构,Flink集群的运行程序由两种类型的进程组成:JobManager和一个或多个TaSkManageroTaskManager连接到JObManager,通知自己可用,并被安排工作。两者的功能如下所示:JobManagei负责协调Flink应用程序的分布式执行,完成任务计划、检查点协调、故障恢复协调等工作。高可用性设置需要用到多个JObManager,其中一个作为领导者(leader),其他备用。TaskManager,也称为Worker,负责执行数据处理流(dataflow)的任务,并缓冲和交换数据流。TaSkManager中资源调度的最小单位是任务槽(SIot),TaskManager中slot的数量代表并发处理任务的数量。Flink架构示意图如图4所示。(Worker)(Worker)图4Flink架构客户端(Client)不是FIink运行程序的一部分,它在给JObManager发送作业后,就可以断开连接或保持连接状态以接收进度报告。3 .Flink对数据的处理方式流处理是对没有边界数据流的处理。执行时,应用程序映射到由流和转换运算符组成的流式数据处理流。这些数据流形成有向图,以一个或多个源(source)开始,以一个或多个输出(sink)结束。程序中的转换与运算符之间通常是一对一的关系,但有时一个转换可以包含多个运算符。FIink流式处理步骤示例如图5所示。DataStrcam<String>lincs=cnv.addSource(newFIinkKafkaConsumer(.);DataStrcam<Evcnt>events=lines.map(line)->parsc(line);转换DataStrcam<Statisticsstats=cvents.kcyBy(cvent->event.id)_转换.timeWindowfTimcsccondsC10).apply(newMyWindowAggregationFunction();图5FIink流式处理步骤示例最高层语言声明性领域特定语言TableAPl核心APlStatcfulStream ProcessingDataStrcainDataSct API4 .Flink的接口抽象FIink为开发流、批处理的应用提供了四层抽象,实践中大多数应用程序是基于核心API的DataStreamZDataSetAPI进行编程的,四层抽象从低到高的示意图如图6所示。底层构建块(streams.state.cvcnttimc)图6Flink接口抽象层次- Low-level:提供底层的基础构建函数,用户可以注册事件时间和处理时间回调,从而允许程序实现复杂的计算。- CoreAPI:DataStreamAPI(有界/无界流)和DataSetAPl(有界数据集)o基于这些APL用户可以实现transformation、join、aggregation>windows.State等形式的数据处理。- TableAPI:基于表(table)的声明性领域特定语言(DSL)oTableAPI遵循(扩展的)关系模型,表具有附加的表结构(SChema),并且该APl提供类似关系模型的操作,例如SeleCt、join、group-bysaggregate等。TableAPI的表达性不如COreAPI,但优点是使用起来更为简洁,编码更少。Flink支持在表和DataStreamZDataSet之间进行无缝转换,因此可以将TableAPI与DataStreamZDataSetAPI混合使用。-SQL:此层是最高层的抽象,在语义和表达方式上均类似于TableAPI,但是将程序表示为SQL查询表达式。

    注意事项

    本文(要掌握的大数据计算技术.docx)为本站会员(李司机)主动上传,三一办公仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三一办公(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-2

    经营许可证:宁B2-20210002

    宁公网安备 64010402000987号

    三一办公
    收起
    展开