Spark与Hadoop MapReduce大比拼,谁实力更强

  • 时间:
  • 浏览:0

2、应用灵活,上手容易

大数据处理首先追求的是速率单位单位。Spark 到底有多快?用官方搞笑的话说,“Spark 允许 Hadoop 集群中的守护进程运行运行在内存中以 3000 倍的速率单位单位运行,即使在磁盘上运行不能不能快 10 倍”。可能有的读者看得人这里会大为感叹,的确没办法 ,在有迭代计算的领域,Spark 的计算速率单位单位远远超过 MapReduce,许多迭代次数太大 ,Spark 的优势越明显。这是可能 Spark 很好地利用了目前服务器内存没办法 大并与否优点,通过减少磁盘 I/O 来达到性能提升。它们将顶端处理数据详细装入去了内存中,仅在必要时才批量存入硬盘中。或许读者会问 :可能守护进程运行运行不得劲大,内存能放下哪几个 GB ?答曰 :哪几种? GB ?目前 IBM 服务器内存可能扩展至几 TB 了。

4、实时处理性能非凡

从 Spark 的版本演化来看,足以说明并与否平台旺盛的生命力及社区的活跃度。尤其自 2013 年以来,Spark 一度进入高速发展期,代码库提交与社区活跃度详细都是显著增长。以活跃度论,Spark 在所有的 Apache 基金会开源项目中位列前三,相较于许多大数据平台或框架而言,Spark 的代码库最为活跃。

5、社区贡献力量巨大

1、计算速率单位单位快

没办法 ,有没办法 并与否软件能不能一起去处理以上并与否情景呢? Spark 就能不能,可能说有原先的潜力。Spark 一起去支持简化的批处理、互操作和流计算,许多兼容支持HDFS 和 Amazon S3 等分布式文件系统,能不能部署在 YARN 和 Mesos 等流行的集群资源管理器上。

一般来说,对于中小企业的数据中心而言,在单次计算的数据量不大的状态下,Spark 详细都是很好的确定。另外,Spark 可是我我适合应用于混合的云计算平台,可能混合的云计算平台的网络传输是很大的问题报告 报告 ,即便有专属的宽带在云端 Cluster和本地 Cluster 之间传输数据,相比内存读取速率单位单位来说,依然不抵。

(2)基于历史数据的交互式查询,通常的时间跨度在数十秒到数分钟之间。

Spark 能不能独立运行,除了能不能运行在当下的 YARN 集群管理外,还能不能读取已有的任何 Hadoop 数据。它能不能运行在任何 Hadoop 数据源上,比如 HBase、HDFS 等。有了并与否型态,让哪几种想从 Hadoop 应用迁移到 Spark 上的用户方便了许多。Spark 有兼容竞争对手的胸襟,何愁大事不成?

3、兼容竞争对手

从 Spark 的设计理念(基于内存的迭代计算框架)出发,其最适合有迭代运算的可能都要多次操作特定数据集的应用场合。许多迭代次数太大 ,读取的数据量越大,Spark 的应用效果就越明显。许多,对于机器学习类事的“迭代式”应用,Spark 可谓拿手好戏,要比 Hadoop MapReduce 快数十倍。另外,Spark Streaming可能内存存储顶端数据的型态,处理速率单位单位非常快,也能不能应用于都要实时处理大数据的场合。

Spark 核心部分的代码为 63 个 Scala 文件,非常的轻量级。许多允许 Java、Scala、Python 开发者在另一方熟悉的语言环境下进行工作,通过建立在Java、Scala、Python、SQL(应对交互式查询)的标准 API 以方便各行各业使用,一起去还包括絮状开箱即用的机器学习库。它自带 3000 多个高等级操作符,允许在 Shell中进行交互式查询。即使是新手,不能不能轻松上手应用。

Spark 非常重视社区活动,组织也极为规范,会定期或不定期地举行与 Spark相关的会议。会议分为并与否 :并与否是 Spark Summit,影响力极大,可谓全球 Spark顶尖技术人员的峰会,目前已于 2013—2015 年在 San Francisco 连续召开了三届Summit 大会 ;另并与否是 Spark 社区不定期地在全球各地召开的小型 Meetup 活动。Spark Meetup 也会在我国的许多大城市定期召开,比如北京、深圳、西安等地,读者能不能关注当地的微信公众号进行参与。

来源:51CTO

从大数据处理需求来看,大数据的业务大慨能不能分为以下三类 :

当然,Spark 详细都是不适用的场合。对于那种异步细粒度更新状态的应用,类事 Web 服务的存储或增量的 Web 爬虫和索引,也可是我我对于那种增量修改的应用模型不适合。Spark 可是我我适合做超级大的数据量的处理,这里所说的“超级大”是相对于并与否集群的内存容量而言的,可能 Spark 要将数据存储在内存中。一般来说,10TB 以上(单次分析)的数据就能不能与否“超级大”的数据了。

目前已有许多相对性性性性性性成熟 的句子的句子期的开源和商业软件来处理以上并与否情景 :第并与否业务,能不能利用 MapReduce 来进行批量数据处理 ;第二种业务,能不能用 Impala 来进行交互式查询 ;对于第并与否流式数据处理,能不能想到专业的流数据处理工具Storm。许多这里有三个不得劲要的问题报告 报告 :对于大多数互联网公司来说,一般会一起去遇到以上并与否情景,可能采用不同的处理技术来面对这并与否情景,没办法 这并与否情景的输入/ 输出数据无法无缝共享,它们之间可能都要进行格式转换,许多每个开源软件都都要一支开发和维护团队,从而提高了成本。另外三个不便之处可是我我,在同三个集群中对各个系统协调资源分配比较困难。

一提到大数据处理,相信许多人第一时间想到的是 Hadoop MapReduce。没错,Hadoop MapReduce 为大数据处理技术奠定了基础。近年来,随着 Spark 的发展,太大 的声音提到了 Spark。而Spark相比Hadoop MapReduce有哪几种优势?

知道 AMPLab 的 Lester 为哪几种放弃 MapReduce 吗?可能他都要把许多精力装入去Map和Reduce的编程模型上,极为不便。 Spark在简单的Map及Reduce操作之外,还支持 SQL 查询、流式查询及简化查询,比如开箱即用的机器学习算法。一起去,用户能不能在同三个工作流中无缝地搭配哪几种能力,应用十分灵活。

Spark 的适用场景

(3)基于实时数据流的数据处理,通常的时间跨度在数百毫秒到数秒之间。

MapReduce 更 加 适 合 处 理 离 线 数 据( 当 然, 在 YARN 之 后,Hadoop也能不能借助许多工具进行流式计算)。Spark 很好地支持实时的流计算,依赖Spark Streaming 对数据进行实时处理。Spark Streaming 具备功能强大的 API,允许用户快速开发流守护进程运行运行。许多不像许多的流处理方案,比如Storm,Spark Streaming 并不额外的代码和配置,就能不能做絮状的恢复和交付工作。

Spark与Hadoop MapReduce在业界有并与否说法 :一是 Spark 将代替 Hadoop MapReduce,成为未来大数据处理发展的方向 ;二是 Spark 可能和 Hadoop 结合,形成更大的生态圈。虽然 Spark 和 Hadoop MapReduce 的重点应用场合有所不同。相对于 Hadoop MapReduce 来说,Spark 不得劲“青出于蓝”的感觉,Spark 是在Hadoop MapReduce 模型上发展起来的,在它的身上亲戚亲戚朋友儿能明显看得人 MapReduce的影子,所有的 Spark 并不从头创新,可是我我站在了巨人“MapReduce”的肩膀上。千秋功罪,留于时候评说,亲戚亲戚朋友儿并不搁下争议,来看看相比 Hadoop MapReduce,Spark 详细都是哪几种优势。

本文作者:佚名

(1)简化的批量数据处理,通常的时间跨度在数十分钟到数小时之间。