[一]、实验环境
1.1、环境
- hadoop 2.6.0
- namenode 2个 各增加 2个1T硬盘
- datanode 3个 各增加3个1T硬盘
1.2、挂载硬盘
- fdisk 分区 (输入m—n—p—1–回车—回车—p—w)
- mkfs 格式化硬盘 ( mkfs.ext4 )
- mount 挂载硬盘 (以挂载目录为 /bigdata/data0 /bigdata/data1 …. /bigdata/dataN 为例)
- 开机挂载
vi /etc/fstab
:
123/dev/sda1 /bigdata/data0 ext4 defaults 0 0/dev/sdb1 /bigdata/data1 ext4 defaults 0 0/dev/sdc1 /bigdata/data2 ext4 defaults 0 0
命令不会使用的可以查阅相关文档,只要注意配置挂载的新目录赋予hadoop用户的读写权限。
[二]、修改hadoop配置
2.1、修改 $HADOOP_HOME/hdfs-site.xml
:
1 2 3 4 5 6 7 8 9 |
<!-- 多个目录逗号,分割,不能有空格 千万注意 --> <property> <name>dfs.namenode.name.dir</name> <value>/bigdata/data0/dfs/name,/bigdata/data1/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/bigdata/data0/dfs/data,/bigdata/data1/dfs/data,/bigdata/data2/dfs/data</value> </property> |
2.2、修改 $HADOOP_HOME/mapred-site.xml
:
1 2 3 4 |
<property> <name>mapreduce.cluster.local.dir</name> <value>/bigdata/data0/mapred/local,/bigdata/data1/mapred/local,/bigdata/data2/mapred/local</value> </property> |
—————– EOF @Michael Sun —————–
原创文章,转载请注明: 转载自micmiu – 软件开发+生活点滴[ http://www.micmiu.com/ ]
本文链接地址: http://www.micmiu.com/bigdata/hadoop/hadoop-many-disk-config/
0 条评论。