说到了Hadoop,那么,什么是Hadoop呢?我们先来了解一下什么是Hadoop。
Hadoop:这个我们就没法顾名思义了。这只是一个玩具大象的名字。哈哈,是不是挺逗。这只大象也算是闻名世界了。
Hadoop,用官方属于来说,就是一个由Apache基金会所开发的分布式基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。
简单点说,Hadoop就是利用我们的一台台的单台服务器,构成了一个大的集群,然后通过集群的一些组件,让我们在使用的时候就感觉和在一台机器上使用是一样的。不必去关注每台机器怎样。当成一台来用就可以了。
了解了Hadoop的基本概念,我们就来说一下Hadoop的基本组件。这里只说几个最重要的,其他的后面有详细的介绍。
HDFS(Hadoop Distributed File System):Hadoop实现的分布式文件系统,这是hadoop的核心之一。Hadoop是构建在普通的机器之上的。比如,10台linux服务器构成了一个Hadoop集群,那么,我们在Hadoop上存储数据的时候,最终还是存储在这10台机器上。而HDFS就是来实现这个功能的,通过hdfs来存储文件,虽然底层是存放在这10台机器上,但是,我们存放在hdfs上的时候,就像操作一台linux一样简单。
MapReduce:这是Hadoop实现的并行计算框架,也是Hadoop的核心之一。这里简单说一下,后面单独的章节介绍。MapReduce从并行上来说,比如,我们要对hdfs的某个文件提取某个字符串,然后,我们写了这么一个mapreduce程序,然后提交给hadoop。这个时候mapreduce就会自动在集群的机器上,同时并行的运行。最后将结果写到文件里。而不用我们一台台去跑程序。
Yarn:是Hadoop上的一个资源管理框架。这个是在hadoop2.0之后出现的,1.0是没有的。我们简单理解为资源管理器就可以了。就是对hadoop的资源,比如内存,cpu等进行分配,以及对跑着的mapreudce等任务的管理。也是因为有了yarn,现在hadoop计算框架不再局限于mapreduce,比如内存计算框架spark,流计算框架storm等等。
然后说一下起源:
Hadoop由 Apache Software Foundation 公司于 2005 年秋天作为Lucene的子项目Nutch的一部分正式引入。它受到最先由 Google Lab 开发的 Map/Reduce 和 Google File System(GFS) 的启发。
2006 年 3 月份,Map/Reduce 和 Nutch Distributed File System (NDFS) 分别被纳入称为 Hadoop 的项目中。
到目前为止,Hadoop一直是很火的。
下面这一块摘自百度百科,说的挺详细的。
Hadoop是一个能够对大量数据进行分布式处理的软件框架。 Hadoop 以一种可靠、高效、可伸缩的方式进行数据处理。
Hadoop 是可靠的,因为它假设计算元素和存储会失败,因此它维护多个工作数据副本,确保能够针对失败的节点重新分布处理。
Hadoop 是高效的,因为它以并行的方式工作,通过并行处理加快处理速度。
Hadoop 还是可伸缩的,能够处理 PB 级数据。
此外,Hadoop 依赖于社区服务,因此它的成本比较低,任何人都可以使用。
Hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。它主要有以下几个优点:
- 高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。
- 高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
- 高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
- 高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
- 低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。