Cloudera旨在以Spark取代MapReduce作为默认Hadoop框架  
   
  2015年9月14日  
  Apache Spark内存计算框架更接近于Apache Hadoop,Cloudera今天宣布它正努力地使Spark取代默认的Hadoop数据处理框架。
大多数IT组织认为MapReduce是一个相当晦涩难懂的编程工具。出于这个原因,许多人愿意采用任意数量的SQL引擎作为查询Hadoop数据的工具。
Brandwein声称 Spark的项目比Hadoop项目更活跃50%,比其他Hadoop供应商多五倍多的工程资源致力于Spark,并且贡献了超过370个补丁和43000行代码给开源流分析项目。他们的长期的目标是,使Spark工作规模同时在多租户集群拥有超过10000个节点成为可能,这需要Spark的可靠性、稳定性和效率显著改善。
Cloudera也促使Spark集成Hadoop上的资源整合,使Spark更容易在企业生产环境中管理,确保Spark流至少支持80%常见流处理的工作量。最后,要使这些实时工作量达到.更高水平的语言层次之外,Cloudera将提高Spark流的效率。
 
     
 
COPYRIGHT (C) 1992-2015 China HPC Technology ALL RIGHTS RESERVED. MAIL TO US .  
华算信息科技有限公司 上海市新华路365弄6号科技园2号楼2G座