hive客户端安装操作手册.docVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hive客户端安装操作手册 文档修订记录 版本编号 *变化 状态 简要说明(变更内容和变更范围) 日期 变更人 批准日期 批准人 V0.1 建立 Hive客户端安装操作手册 2006-10-19 陈卫群 *变化状态:建立,修改,增加,删除 文档审批信息 序号 审批人 角色 审批日期 签字 备注 主机说明 机器名称 IP地址 59 Salve1 60 Salve2 61 Salve3 62 客户端机 5 机器是hadoop大数据平台的主机 Salve1-salve3是hadoop大数据平台的数据节点 5机器是作为应用服务器部署开发的机器,通过该台机器来与大数据平台进行交互 准备工作 目录规划 在5上规划/home/nmc/nlcis/soft作为使用软件的存放目录 /home/nmc/nlcis/hive作为存放与hive相关的信息目录 /home/nmc/nlcis/hadoop作为存放hadoop有关的信息目录 操作实施 步骤1、查看当前的集群环境的hive的版本和hadoop的版本 通过下面的命令 hive –version 查看hive的版本 Hadoop version 查看hadoop的版本 步骤2、下载对应版本的hive和hadoop HYPERLINK qq://txfile/ /cdh5/cdh/5/hive-0.12.0-cdh5.0.2.tar.gz HYPERLINK /cdh5/cdh/5/hadoop-2.3.0-cdh5.0.2.tar.gz /cdh5/cdh/5/hadoop-2.3.0-cdh5.0.2.tar.gz 步骤3、修改客户机hosts文件 需要切换至root用户 修改 /etc/hosts 新增如下: 步骤4、安装java,配置JAVA_HOME 由于正常情况下我们没有root权限,在公司里面需要root权限需要找系统部,因此我们尽量把jdk放到用户目录下。 (1)、上传jdk 至/home/nmc/nlcis/soft (2)解压 tar –xvf jdk-7u40-linux-x64.tar.gz 后如下图所示: (3)设置JAVA_HOME环境变量 Cd ~ Vi .bash_profile 增加:export JAVA_HOME=/home/nmc/nlcis/soft/jdk1.7.0_40 保存后执行,source .bash_profile 步骤4、解压hadoop-2.3.0-cdh5.0.2.tar.gz 并配置hadoop配置文件 如下图所示: core-site.xml直接从59机器拷贝。 通过命令scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/core-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop mapred-site.xml 直接从59 机器拷贝。 Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/mapred-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop hadfs-site.xml 先从59机器上拷贝下来 Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/hdfs-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh5.0.2/etc/hadoop 然后删除带’.txt’的两个参数,这个是白名单,没啥用 yarn-site.xml直接从59机器拷贝。 Scp /var/run/cloudera-scm-agent/process/341-hdfs-NAMENODE/yarn-site.xml HYPERLINK mailto:nmc@5:/home/nmc/nlcis/hadoop/hadoop-2.3.0-cdh

文档评论(0)

nuvem + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档