大数据学习:Spark是什么,如何用Spark进行数据分析
发布时间:2018-10-15 03:01:48 所属栏目:大数据 来源:简书
导读:副标题#e# 给大家分享一下Spark是什么?如何用Spark进行数据分析,对大数据感兴趣的小伙伴就随着小编一起来了解一下吧。 什么是Apache Spark? Apache Spark是一个为速度和通用目标设计的集群计算平台。 从速度的角度看,Spark从流行的MapReduce模型继承而来
对工程师而言,Spark提供了一个简单的方式在集群之间并行化这些应用,隐藏了分布式系统、网络通信和容错处理的复杂性。系统使得工程师在实现任务的同时,有充足的权限监控、检查和调整应用。API的模块特性使得重用已有工作和本地测试变得简单。 Spark用户使用Spark作为其数据处理应用,因为他提供了丰富的功能,易于学习和使用,而且成熟可靠。如果你已经做好准备,那么就立即开始行动吧! 相关阅读: 大数据的特点是什么,大数据与Hadoop有什么关系? Python主要用于什么开发? 如何入门大数据 (编辑:淮北站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |