下载安卓APP箭头
箭头给我发消息

客服QQ:3315713922

数据库技术:Spark中Broadcast的理解

作者:知晓的老巢     来源: 博客园点击数:1680发布时间: 2020-05-19 13:57:23

标签: 数据处理数据库技术数据库编程

  Shark基本上就是在Spark的框架基础上提供和Hive一样的HiveQL命令接口,为了最大程度的保持和Hive的兼容性,Spark使用了Hive的API来实现queryParsing和LogicPlangeneration,最后的PhysicalPlanexecution阶段用Spark代替HadoopMapReduce。

  通过配置Shark参数,Shark可以自动在内存中缓存特定的RDD,实现数据重用,进而加快特定数据集的检索。同时,Shark通过UDF用户自定义函数实现特定的数据分析学习算法,使得SQL数据查询和运算分析能结合在一起,最大化RDD的重复使用。

  Spark中Broadcast的理解

  广播变量

  应用场景:在提交作业后,task在执行的过程中,

  有一个或多个值需要在计算的过程中多次从Driver端拿取时,此时会必然会发生大量的网络IO,

  这时,最好用广播变量的方式,将Driver端的变量的值事先广播到每一个Worker端,

  以后再计算过程中只需要从本地拿取该值即可,避免网络IO,提高计算效率。

  广播变量在广播的时候,将Driver端的变量广播到每一个每一个Worker端,一个Worker端会收到一份仅一份该变量的值

  注意:广播的值必须是一个确切的值,不能广播RDD(因为RDD是一个数据的描述,没有拿到确切的值),

  如果想要广播RDD对应的值,需要将该RDD对应的数据获取到Driver端然后再进行广播。

  广播的数据是不可改变的。

  广播变量的数据不可太大,如果太大,会在Executor占用大量的缓存,相对于计算的时候的缓存就少很多。

数据库技术:Spark中Broadcast的理解_数据处理_数据库技术_数据库编程_课课家

  SparkR是一个为R提供了轻量级的Spark前端的R包。SparkR提供了一个分布式的dataframe数据结构,解决了R中的dataframe只能在单机中使用的瓶颈,它和R中的dataframe一样支持许多操作,比如select,filter,aggregate等等。(类似dplyr包中的功能)这很好的解决了R的大数据级瓶颈问题。

  SparkR也支持分布式的机器学习算法,比如使用MLib机器学习库。SparkR为Spark引入了R语言社区的活力,吸引了大量的数据科学家开始在Spark平台上直接开始数据分析之旅。

  构建在Spark上处理Stream数据的框架,基本的原理是将Stream数据分成小的时间片断(几秒),以类似batch批量处理的方式来处理这小部分数据。

  SparkStreaming构建在Spark上,一方面是因为Spark的低延迟执行引擎(100ms+),虽然比不上专门的流式数据处理软件,也可以用于实时计算,另一方面相比基于Record的其它处理框架(如Storm),一部分窄依赖的RDD数据集可以从源数据重新计算达到容错处理目的。

  此外小批量处理的方式使得它可以同时兼容批量和实时数据处理的逻辑和算法。方便了一些需要历史数据和实时数据联合分析的特定应用场合。

赞(14)
踩(0)
分享到:
华为认证网络工程师 HCIE直播课视频教程