红联Linux门户
Linux帮助

ubuntu16.04LTS下Spark完全分布式搭建

发布时间:2017-01-27 16:06:16来源:linux网站作者:lpty
本文章Spark是在Hadoop2.7完全分布式环境下搭建的(http://www.linuxdiyf.com/linux/27981.html),相关配置如下:
1、ubuntu16.04LTS
2、jdk1.8._111
3、Hadoop2.7.3
 
一、工具准备
1.spark-2.1.0-bin-hadoop2.7.tgz(http://spark.apache.org/downloads.html)
2.Scala-2.12.1.tgz(http://www.scala-lang.org/download/2.12.1.html)
 
二、环境搭建
1.scala安装
(1)解压scala-2.12.1.tgz到/usr/local/scala目录下
(2)增加环境变量
root@master:~# gedit .bashrc  
添加以下内容:
export SCALA_HOME=/usr/local/scala/scala-2.12.1  
export PATH=$PATH:$SCALA_HOME/bin  
(3)刷新环境变量
root@master:~# source .bashrc  
2.spark安装
(1)解压spark-2.1.0-bin-hadoop2.7.tgz到/usr/local/spark目录下
(2)增加环境变量
root@master:~# gedit .bashrc  
添加以下内容:
export SPARK_HOME=/usr/local/spark/spark-2.1.0-bin-hadoop2.7  
export PATH=$PATH:$SPARK_HOME/bin  
(3)刷新环境变量
root@master:~# source .bashrc  
(4)修改spark配置文件
1)$SPARK_HOME/conf/spark-env.sh
cp spark-env.sh.template spark-env.sh  
添加以下内容:  
export SCALA_HOME=/usr/local/scala/scala-2.12.1  
export JAVA_HOME=/usr/local/java/jdk1.8.0_111  
export SPARK_MASTER_IP=master  
export SPARK_WORKER_MEMORY=512m  
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop  
2)$SPARK_HOME/conf/slaves
cp slaves.template slaves  
添加以下内容:  
master  
slave1
3.以上配置均在master节点进行,接下来将配置好的文件复制到slave节点,确保路径等均一致,不清楚的可以先看配置hadoop的文章。
 
三、集群启动
1.启动spark集群
cd $SPARK_HOME  
sbin/start-all.sh  
2.查看
jps  
3.结果
master节点:
8608 Worker  
8488 Master  
8670 Jps  
slave1节点:
6737 Worker  
6774 Jps  
4.关闭集群
sbin/stop-all.sh
到这里spark的配置就完成了。
 
本文永久更新地址:http://www.linuxdiyf.com/linux/27982.html