专注于互联网--专注于架构

最新标签
网站地图
文章索引
Rss订阅

首页 »Java教程 » hadoop:分布式计算开源框架Hadoop入门实战( 2) »正文

hadoop:分布式计算开源框架Hadoop入门实战( 2)

来源: 发布时间:星期四, 2009年1月8日 浏览:41次 评论:0
  其实参看Hadoop官方文档已经能够很容易配置分布式框架运行环境了不过这里既然写了就再多写同时有些细节需要注意也介绍说明其实也就是这些细节会让人摸索半天Hadoop可以单机跑也可以配置集群跑单机跑就不需要多说了只需要按照Demo运行介绍说明直接执行命令即可这里主要重点说下集群配置运行过程

  环境  7台普通机器操作系统都是Linux内存和CPU就不说了反正Hadoop大特点就是机器在多不在精JDK必须是1.5以上这个切记7台机器机器名务必区别后续会谈到机器名对于MapReduce有很大影响

  部署考虑  正如上面我描述对于Hadoop集群来说可以分成两大类角色:Master和Slave前者主要配置NameNode和JobTracker角色负责总管分布式数据和分解任务执行后者配置DataNode和TaskTracker角色负责分布式数据存储以及任务执行本来我打算看看台机器是否可以配置成Master同时也作为Slave使用不过发现在NameNode过程中以及TaskTracker执行过程中机器名配置好像有冲突(NameNode和TaskTracker对于Hosts配置有些冲突究竟是把机器名对应IP放在配置前面还是把Localhost对应IP放在前面有点问题不过可能也是我自己问题吧这个大家可以根据实施情况给我反馈)最后反正决定台Master 6台Slave后续复杂应用开发和测试结果比对会增加机器配置

  实施步骤  在所有机器上都建立相同目录也可以就建立相同用户以该用户home路径来做hadoop安装路径例如我在所有机器上都建立了/home/wenchu

  下载Hadoop先解压到Master上这里我是下载0.17.1版本此时Hadoop安装路径就是/home/wenchu/hadoop-0.17.1

  解压后进入conf目录主要需要修改以下文件:hadoop-env.shhadoop-site.xml、masters、slaves   Hadoop基础配置文件是hadoop-default.xml看Hadoop代码可以知道默认建立个Job时候会建立JobConfigConfig首先读入hadoop-default.xml配置然后再读入hadoop-site.xml配置(这个文件时候配置为空)hadoop-site.xml中主要配置你需要覆盖hadoop-default.xml系统级配置以及你需要在你MapReduce过程中使用自定义配置(具体些使用例如final等参考文档)

  以下是个简单hadoop-site.xml配置:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specic property overrides in this file. -->
<configuration>
<property>
  <name>fs.default.name</name>//你namenode配置机器名加端口
  <value>hdfs://10.2.224.46:54310/</value>
</property>
<property>
  <name>mapred.job.tracker</name>//你JobTracker配置机器名加端口
  <value>hdfs://10.2.224.46:54311/</value>
</property>
<property>
  <name>dfs.replication</name>//数据需要备份数量默认是 3
  <value>1</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>//Hadoop默认临时路径这个最好配置如果在新增节点或者其他情况下莫名其妙DataNode启动不了就删除此文件中tmp目录即可不过如果删除了NameNode机器此目录那么就需要重新执行NameNode格式化命令
  <value>/home/wenchu/hadoop/tmp/</value>
</property>
<property>
  <name>mapred.child.java.opts</name>//java虚拟机些参数可以参照配置
  <value>-Xmx512m</value>
</property>
<property>
 <name>dfs.block.size</name>//block大小单位字节后面会提到用处必须是512倍数采用crc作文件完整性校验默认配置512是checksum最小单元
 <value>5120000</value>
 <description>The default block size for files.</description>
</property>
</configuration>
  hadoop-env.sh文件只需要修改个参数:

# The java implementation to use. Required.
export JAVA_HOME=/usr/ali/jdk1.5.0_10
  配置你Java路径记住定要1.5版本以上免得莫名其妙出现问题

  Masters中配置MastersIP或者机器名如果是机器名那么需要在/etc/hosts中有所设置Slaves中配置是SlavesIP或者机器名同样如果是机器名需要在/etc/hosts中有所设置范例如下我这里配置都是IP:

Masters:
10.2.224.46
 Slaves:
10.2.226.40
10.2.226.39
10.2.226.38
10.2.226.37
10.2.226.41
10.2.224.36


  建立Master到每台SlaveSSH受信证书由于Master将会通过SSH启动所有SlaveHadoop所以需要建立单向或者双向证书保证命令执行时不需要再输入密码在Master和所有Slave机器上执行:ssh-keygen -t rsa执行此命令时候看到提示只需要回车然后就会在/root/.ssh/下面产生id_rsa.pub证书文件通过scp将Master机器上这个文件拷贝到Slave上(记得修改名称)例如:scp root@masterIP:/root/.ssh/id_rsa.pub /root/.ssh/46_rsa.pub然后执行cat /root/.ssh/46_rsa.pub >>/root/.ssh/authorized_keys建立authorized_keys文件即可可以打开这个文件看看也就是rsa公钥作为keyuser@IP作为value此时可以试验从master ssh到slave已经不需要密码了由slave反向建立也是同样为什么要反向呢?其实如果直都是Master启动和关闭话那么没有必要建立反向只是如果想在Slave也可以关闭Hadoop就需要建立反向

  将Master上Hadoop通过scp拷贝到每个Slave相同目录下根据每个SlaveJava_HOME区别修改其hadoop-env.sh

  修改Master上/etc/profile:

  新增以下内容:(具体内容根据你安装路径修改这步只是为了方便使用)

export HADOOP_HOME=/home/wenchu/hadoop-0.17.1
export PATH=$PATH:$HADOOP_HOME/bin
修改完毕后执行source /etc/profile来使其生效

  在Master上执行Hadoop namenode –format这是第需要做可以看作格式化吧以后除了在上面我提到过删除了Master上hadoop.tmp.dir目录否则是不需要再次执行

  然后执行Master上start-all.sh这个命令可以直接执行在6中已经添加到了path路径这个命令是启动hdfs和mapreduce两部分当然你也可以分开单独启动hdfs和mapreduce分别是bin目录下start-dfs.sh和start-mapred.sh

  检查Masterlogs目录看看Namenode日志以及JobTracker日志是否正常启动

  检查Slavelogs目录看看Datanode日志以及TaskTracker日志是否正常

  如果需要关闭那么就直接执行stop-all.sh即可

  以上步骤就可以启动Hadoop分布式环境然后在Master机器进入Master安装目录执行hadoop jar hadoop-0.17.1-examples.jar wordcount输入路径和输出路径就可以看到字数统计效果了此处输入路径和输出路径都指是HDFS中路径因此你可以首先通过拷贝本地文件系统中目录到HDFS中方式来建立HDFS中输入路径:

  hadoop dfs -copyFromLocal /home/wenchu/test-in test-in其中/home/wenchu/test-in是本地路径test-in是将会建立在HDFS中路径执行完毕以后可以通过hadoop dfs –ls看到test-in目录已经存在同时可以通过hadoop dfs –ls test-in查看里面内容输出路径要求是在HDFS中不存在当执行完那个demo以后就可以通过hadoop dfs –ls 输出路径看到其中内容具体文件内容可以通过hadoop dfs –cat文件名称来查看

  经验整理总结和注意事项(这部分是我在使用过程中花了些时间走弯路):

  Master和Slave上几个conf配置文件不需要全部同步如果确定都是通过Master去启动和关闭那么Slave机器上配置不需要去维护但如果希望在任意台机器都可以启动和关闭Hadoop那么就需要全部保持致了

  Master和Slave机器上/etc/hosts中必须把集群中机器都配置上去就算在各个配置文件中使用是IP这个吃过不少苦头原来以为如果配成IP就不需要去配置Host结果发现在执行Reduce时候总是卡住在拷贝时候就无法继续下去不断重试另外如果集群中如果有两台机器机器名如果重复也会出现问题

  如果在新增了节点或者删除节点时候出现了问题首先就去删除Slavehadoop.tmp.dir然后重新启动试试看如果还是不行那就干脆把Masterhadoop.tmp.dir删除(意味着dfs上数据也会丢失)如果删除了Masterhadoop.tmp.dir那么就需要重新namenode –format

  Map任务个数以及Reduce任务个数配置前面分布式文件系统设计提到个文件被放入到分布式文件系统中会被分割成多个block放置到每DataNode上默认dfs.block.size应该是64M也就是说如果你放置到HDFS上数据小于64那么将只有个Block此时会被放置到某个DataNode中这个可以通过使用命令:hadoop dfsadmin –report就可以看到各个节点存储情况也可以直接去某个DataNode查看目录:hadoop.tmp.dir/dfs/data/current就可以看到那些block了Block数量将会直接影响到Map个数当然可以通过配置来设定Map和Reduce任务个数Map个数通常默认和HDFS需要处理blocks相同也可以通过配置Map数量或者配置minimum split size来设定实际个数为:max(min(block_size,data/#maps),min_split_size)Reduce可以通过这个公式计算:0.95*num_nodes*mapred.tasktracker.tasks.maximum



  总来说出了问题或者启动时候最好去看看日志这样心里有底

  Hadoop中命令(Command)整理总结  这部分内容其实可以通过命令Help以及介绍了解我主要侧重于介绍下我用比较多几个命令Hadoop dfs 这个命令后面加参数就是对于HDFS操作和Linux操作系统命令很类似例如:

  Hadoop dfs –ls就是查看/usr/root目录下内容默认如果不填路径这就是当前用户路径;

  Hadoop dfs –rmr xxx就是删除目录还有很多命令看看就很容易上手;

  Hadoop dfsadmin –report这个命令可以全局查看DataNode情况;

  Hadoop job后面增加参数是对于当前运行Job操作例如list,kill等;

  Hadoop balancer就是前面提到均衡磁盘负载命令

  其他就不详细介绍了

  作者介绍:岑文初就职于阿里软件Software公司研发中心平台任架构师当前主要工作涉及阿里软件Software开发平台服务框架(ASF)设计和实现服务集成平台(SIP)设计和实现没有什么擅长或者精通工作到现在唯提升就是学习能力和速度个人Blog为:http://blog.csdn.net/cenwenchu79



0

相关文章

读者评论

发表评论

  • 昵称:
  • 内容: