Spark1.2集群环境搭建〔StandaloneHA〕4G内存5个节点也是蛮拼的.docVIP

Spark1.2集群环境搭建〔StandaloneHA〕4G内存5个节点也是蛮拼的.doc

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Spark1.2集群环境搭建〔StandaloneHA〕4G内存5个节点也是蛮拼的

Spark1.2集群环境搭建(Standalone+HA) 4G内存5个节点也是蛮拼的 准备工作: 1、笔记本4G内存 ,操作系统WIN7 (屌丝的配置) 2、工具VMware Workstation 3、虚拟机:CentOS6.4共五台 4、搭建好Hadoop集群( 方便Spark可从HDSF上读取文件,进行实验测试) 实验环境: Hadoop HA集群: Ip hostname role 30 SY-0130 ActiveNameNode 31 SY-0131 StandByNameNode 32 SY-0132 DataNode1 33 SY-0133 DataNode2 Spark HA集群: Ip hostname role 34 SY-0134 Master 30 SY-0130 StandBy Master 31 SY-0131 worker 32 SY-0132 worker 33 SY-0133 worker 实验环境仅作学习用,4G内存确实蛮拼的,资源非常有限。下周换上几台台式机作集群。 上述SY-0134是新克隆的虚拟机,作为Spark的环境中的Master,原属于Hadoop集群中的4个节点分别作为StandByMaster 和 Worker角色。 关于虚拟机环境设置、网络配置、Hadoop集群搭建参见 XXX 。 本文重点关注Spark1.2环境、Zookeeper环境简易搭建,仅作学习与实验原型,且不涉及太多理论知识。 软件安装: (注:用户hadoop登录SY-0134) 在节点SY-0134,hadoop用户目录创建toolkit 文件夹,用来保存所有软件安装包,建立labsp文件作为本次实验环境目录。 [hadoop@SY-0134 ~]$ mkdir labsp [hadoop@SY-0134~]$ mkdir toolkit 我将下载的软件包存放在toolkit中如下 这次实验我下载的Spark包是spark-1.2.0-bin-hadoop2.3.tgz ,Scala版本是2.10.3,Zookeeper是3.4.6。这里需要注意的是,Spark和Scala有版本对应关系,可在Spark官网介绍中找到Spark版本支持的Scala版本。 3、JDK安装及环境变量设置 [hadoop@SY-0134 ~]$ mkdir lab #我将jdk7安装在lab目录 [hadoop@SY-0134 jdk1.7.0_71]$ pwd /home/hadoop/lab/jdk1.7.0_71 #环境变量设置: [hadoop@SY-0134 ~]$ vi .bash_profile #设置生效 [hadoop@SY-0130 ~]$ source .bash_profile Scala安装及环境变量设置 我将scala解压到/home/hadoop/labsp/scala-2.10.3位置。 修改.bash_profile文件 增加:export SCALA_HOME=/home/hadoop/labsp/scala-2.10.3 修改:PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$SCALA_HOME/bin #设置生效 [hadoop@SY-0130 ~]$ source .bash_profile 检验Scala是否安装好: [hadoop@SY-0134 ~]$ scala Welcome to Scala version 2.10.3 (Java HotSpot(TM) Client VM, Java 1.7.0_71). 上述显示安装成功。 Spark安装及环境配置 我将spark解压到/home/hadoop/labsp/spark1.2_hadoop2.3位置。下载的这个包是预编译包。 修改.bash_profile文件 增加:export SPARK_HOME=/home/hadoop/labsp/spark1.2_hadoop2.3 修改 PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin #设置生效 [hadoop@SY-0130 ~]$ source .bash_profile #修改spark-env.sh [hadoop@SY-

文档评论(0)

ktj823 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档