时间:2021-05-22
Linux环境:CentOs6.4
Hadoop版本:Hadoop-1.1.2
master: 192.168.1.241 NameNode JobTracker DataNode TaskTracker
slave:192.168.1.242 DataNode TaskTracker
内容:想hadoop文件系统中上传一个大文件,验证文件分别分布在192.168.1.241节点和192.168.1.242节点上。
第一步: 前期工作:搭建Hadoop集群,
在hdfs-site.xml中的配置为2.
复制代码代码如下:
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
运行执行start-all.sh命令,运行结果如图所示:
查看9000和9001的信息
9000是HDFS的入口9001是MapReduce的JobTracker的入口
从以上图中可以确定Ip地址为192.168.1.241.
第二步:通过网页查看节点的个数。在浏览器中输入http://localhost:50070
以上看到LiveNodes的个数为2,说明启动成功。
第三步:上传大文件。具体步骤如图所示:
通过网页查看运行状况:
大文件已经上传成功.文件的大小是244.91MBlock的大小是64M。所以每个节点能够有4个Block。
Replication为2,表明每个Block有2个备份。
查看节点的使用情况:
从图中可以看出,此文件分成了4个Block。(TotalNumberofblocks:4)。
每个Block在两个节点上进行了备份,分别是192.168.1.241192.168.1.242
hadoop集群至此测试结束。测试成功。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
1.HADOOP背景介绍1.1什么是HADOOP1.HADOOP是apache旗下的一套开源软件平台2.HADOOP提供的功能:利用服务器集群,根据用户的自定义
Linux环境:CentOs6.4Hadoop版本:hadoop-0.20.2验证Hadoop是否安装成功主要通过以下两个网址。http://localhost
安装Hama之前,应该首先确保系统中已经安装了hadoop,本集群使用的版本为hadoop-2.3.0一、下载及解压Hama文件 下载地址:http://
*背景:由于无存储共享设备,web集群中的代码均存放在本地,最终导致web节点之间的数据无法一致。*解决办法:采用rsync+inotify,实现多台web数据
对HDFS上的文件进行上传和下载是对集群的基本操作,在《HADOOP权威指南》一书中,对文件的上传和下载都有代码的实例,但是对如何配置HADOOP客户端却是没有