原创-hodoop-pass版.docVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
原创-hodoop-pass版

在CentOS上装上了hadoop-0.21.0操作系统:CentOS 5.5Hadoop:hadoop-0.2.2 JDK:1..0_07 namenode主机名master,namenode的IP:192.168..202 datanode 主机名slave,datanode的IP:192.168..101 第二部分:安装并启动SSH服务 第一步:安装并启动ssh服务CentOS 5安装完毕之后以及默认启动了sshd服务,可以在“系统”-“管理”-“服务”中查看sshd服务是否启动。如果机器上没有安装ssh服务,则执行命令yum install ssh来安装修改每个节点的/etc/hosts文件,将 namenode和datanode的IP信息加入到该文件的尾部: 02 master 01 slave 第二步,配置SSH服务()生成ssh密钥ssh-keygen -t rsa (一路回车,选择默认的保存路径),密钥生成成功之后,进入.ssh目录,执行cd .ssh,执行命令:cp id_rsa.pub authorized_keys。这个时候运行ssh localhost,让系统记住用户,之后ssh localhost就不需要再输入密码了。 cp id_rsa.pub authorized_keys ()交换公钥将namenode上的公钥拷贝到datanode,/.ssh/id_rsa.pub slave:~/.ssh service iptables stop ssh master 测试看是否要密码 第三部分:安装JDK 下载LINUX环境JDK包 解压 [这是我解压JDK的路径:/usr/local/java/jdk1.7.0_07] 编辑/etc/profile环境配置文件,来添加环境变量source /etc/profile 就可以生效运行命令java -version可以判断是否安装成 ?????? 第四部分:安装hadoop 1、解压Hadoop包 mkdir /usr/local/hadoop 将hadoop-0.21.0.tar.gz解压缩到该目录下,执行命令tar -xvzf hadoop-0.21.0.tar.gz,修改/etc/profile文件,将hadoop的安装目录append到文件最后: export HADOOP_HOME=/usr/local/hadoop/hadoop-0.20.2 export PATH=$HADOOP_HOME/bin:$PATH 2、配置/conf/hadoop-env.sh文件,修改java_home环境变量export JAVA_HOME=/usr/local/java/jdk1.7.0_07/ 3、配置 core-site.xml 文件vim /usr/local/hadoop/hadoop-0.20.2/conf/core-site.xml 注意,请先在 hadoopinstall 目录下建立 tmp 文件夹 4、vim /usr/local/hadoop/hadoop-0.20.2/conf/hdfs-site.xml 文件(这里共两台机器,如果将主节点也配置为datanode,则这里可以写2)5、vim /usr/local/hadoop/hadoop-0.20.2/conf/mapred-site.xml 文件 6、vim /usr/local/hadoop/hadoop-0.20.2/conf/conf/masters 文件,加入 namenode 的 ip 地址7、配置 slaves 文件, 加入所有 datanode 的 ip 地址 ? (如果之前的hdfs-site.xml文件中的拷贝数设置为2,则需要将master也加入到slaves文件中) 8将 namenode 上 配 置 好 的 hadoop 所 在 文 件 夹 hadoop-0.21.0 复 制 到 datanode 的/usr/lcoal/hadoop/目录下(实际上 masters,slavers 文件时不必要的, 复制了也没问题)。scp -r hadoop-0.20.2/ slaves:/usr/local/hadoop 9、配置datanode的/etc/profile 文件,在文件尾append下列内容:export HADOOP_HOME=/usr/local/hadoop/hadoop-0.20.2 export PATH=$HADOOP_HOME/bin:$PATH 第五部分:启动hadoop 首先关闭防火墙, /etc/init.d/iptables stop。在namenode执行命令hadoop namenode -format,格式

文档评论(0)

xcs88858 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:8130065136000003

1亿VIP精品文档

相关文档