0
点赞
收藏
分享

微信扫一扫

Hadoop发展史和生态圈介绍

宁静的猫 2024-10-14 阅读 16

一、Hdoop概述

Hadoop是由Apache基金会所开发的分布式系统基础架构, 旨在解决海量数据存储和计算分析问题。狭义上来说,Hadoop是指Apache Hadoop开源框架,包含以下三种核心组件:

  • Hadoop HDFS(Hadoop Distributed File System):分布式文件存储系统,解决海量数据存储问题。
  • Hadoop Yarn:集群资源管理和任务调度框架,解决资源任务调度问题。
  • Hadoop MapReduce:分布式计算框架,解决海量数据计算问题。

二、Hadoop生态组件

广义上来说,Hadoop通常是指围绕Hadoop打造的大数据生态圈,部分技术栈如下图所示:


Hadoop发展史和生态圈介绍_Hadoop


组件内容:


  • zookeeper:分布式协调组件。
  • HDFS:分布式文件系统。
  • MapReduce:分布式计算框架。
  • Hive:分布式数据仓库。
  • HBase:分布式数据库。
  • Flume:日志采集框架。
  • Sqoop:数据导入/导出工具。
  • pig:工作流引擎。
  • Mahout:机器学习算法库。
  • oozie:作业流调度工具。
  • Ambari:大数据集群管理平台。

官网地址:

Apache Hadoop官网


Hadoop发展史和生态圈介绍_Hadoop_02


三、大数据的技术生态体系

本小节主要作为技术了解内容,先总体了解下大数据技术生态体系技术分层,方便后续清楚的知道Hadoop相关技术栈技术所处的层及作用。下图是大数据技术生态每层及对应技术。


Hadoop发展史和生态圈介绍_Hadoop_03


四、Hadoop发展历史

1 概述

Hadoop最初是由Doug Cutting和Mike Cafarella于2002年左右创建的,最早起源于Nutch,其最初的目标是构建一个 能够处理大规模数据集的分布式文件处理系统 。


后期,Doug Cutting以Google的GFS(Google File System)和MapReduce为基础,开发了Hadoop Distributed File System(HDFS)和Hadoop MapReduce。


2006年,Hadoop成为Apache软件基金会的顶级项目,开始吸引了越来越多的开发者和用户。

Hadoop发展史和生态圈介绍_HDFS_04



2 Hadoop历史发展节点

2.1 2002-2004年理论阶段

2002年10月,Doug Cutting和Mike Cafarella创建了开源网页爬虫项目Nutch。


2003年10月,Google发表Google File System论文。


2004年7月,Doug Cutting和Mike Cafarella在Nutch中实现了类似GFS的功能,即后来HDFS的前身。


2004年10月,Google发表了MapReduce论文。


2.2 2005-2008年Hadoop的问世与崛起

2005年2月,Mike Cafarella在Nutch中实现了MapReduce的最初版本。


2005年12月,开源搜索项目Nutch移植到新框架,使用MapReduce和HDFS在20个节点稳定运行。


2006年1月,Doug Cutting加入雅虎,Yahoo!提供一个专门的团队和资源将Hadoop发展成一个可在网络上运行的系统。


2006年2月,Apache Hadoop项目正式启动以支持MapReduce和HDFS的独立发展。


2006年3月,Yahoo!建设了第一个Hadoop集群用于开发。


2006年4月,第一个Apache Hadoop发布。


2006年11月,Google发表了Bigtable论文,激起了Hbase的创建。


2007年10月,第一个Hadoop用户组会议召开,社区贡献开始急剧上升。


2007年,百度开始使用Hadoop做离线处理。


2007年,中国移动开始在“大云”研究中使用Hadoop技术。


2008年,淘宝开始投入研究基于Hadoop的系统——云梯,并将其用于处理电子商务相关数据。


2008年1月,Hadoop成为Apache顶级项目。


2008年2月,Yahoo!运行了世界上最大的Hadoop应用,宣布其搜索引擎产品部署在一个拥有1万个内核的Hadoop集群上。


2008年4月,在900个节点上运行1TB排序测试集仅需209秒,成为世界最快。


2008年8月,第一个Hadoop商业化公司Cloudera成立。


2.3 2009-2017年Hadoop助力大数据行业的发展

2009 年3月,Cloudera推出世界上首个Hadoop发行版——CDH(Cloudera's Distribution including Apache Hadoop)平台,完全由开放源码软件组成。


2009年6月,Cloudera的工程师Tom White编写的《Hadoop权威指南》初版出版,后被誉为Hadoop圣经。


2009年7月 ,Hadoop Core项目更名为Hadoop Common;


2009年7月 ,MapReduce 和 Hadoop Distributed File System (HDFS) 成为Hadoop项目的独立子项目。


2009年8月,Hadoop创始人Doug Cutting加入Cloudera担任首席架构师。


2009年10月,首届Hadoop World大会在纽约召开。


2010年5月,IBM提供了基于Hadoop 的大数据分析软件——InfoSphere BigInsights,包括基础版和企业版。


2011年3月,Apache Hadoop获得Media Guardian Innovation Awards媒体卫报创新奖


2012年3月,企业必须的重要功能HDFS NameNode HA被加入Hadoop主版本。


2012年8月,另外一个重要的企业适用功能YARN成为Hadoop子项目。


2014年2月,Spark逐渐代替MapReduce成为Hadoop的缺省执行引擎,并成为Apache基金会顶级项目。


2017年12月,Hadoop 3.0.0版本发布,标志着Hadoop的持续发展和创新。


2.4 至今

截止到2024年初,Hadoop最新版本为3.3.6版本,整个Hadoop发行版本中经历了Haoop1.x、2.x、3.x系列版本。目前,Hadoop1.x版本已经被淘汰,Hadoop2.x版本相较于1.x版本引入了Yarn平台,Hadoop3.x版本相较于2.x版本做了优化升级,目前企业中使用主流hadoop版本为hadoop3.x版本。


此外,Hadoop目前发行版本分为开源社区版和商业版。社区版由Apache软件基金会进行维护,商业版Hadoop则是由第三方商业公司在社区版的基础上做了一些修改、整合,并经过各个服务组件的兼容性测试后发布的版本,其中一些著名的商业版包括Cloudera的CDH、Hortonworks的HDP,2018年,Cloudea收购Hortonworks公司。


ClouderaManager的CDH平台:


Hadoop发展史和生态圈介绍_HDFS_05


Ambari的HDP平台:


Hadoop发展史和生态圈介绍_Hadoop_06


五、Hadoop优势特点

Hadoop具备高可靠、高容错、高扩展、高效性这些优势使其在互联网领域中已经得到广泛运用,具体如下:


5.1 低成本

Hadoop可以由多台廉价普通机器组成,支持TB和PB级别数据存储,并不需要运行在昂贵且高可靠性的硬件上。


5.2 高可靠、容错性

HDFS中数据存储有多副本支持数据高可靠性,即使一些副本出现故障也能保障数据可使用。MapReduce计算过程中任务失败,可以自动进行任务重新分配进行任务重试。此外,HDFS和Yarn都支持高可用配置,当主节点挂掉时,可以自动选主切换,保证集群可靠性。


5.3 高扩展性

Hadoop集群可以扩展到上千个节点以支持数据存储和计算,节点多支持数据量大、支持更大并行度的并行计算。


5.4 高效性

Hadoop可以并行在节点之间动态移动数据,保证各个节点数据动态平衡;基于MapReduce进行数据处理计算时,可以并行处理数据,效率极高。



举报

相关推荐

0 条评论