A股上市公司传智教育(股票代码 003032)旗下技术交流社区北京昌平校区

 找回密码
 加入黑马

QQ登录

只需一步,快速开始

前言
在安装Spark之前,我们需要安装Scala语言的支持。在此我选择的是scala-2.11.7版本。
scala-2.11.7下载

为了方便,我现在我的SparkMaster主机上先安装,把目录打开到/usr目录下,与我的Java目录相一致。

wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz
  • 1
下载之后解压tar -zxvf scala-2.11.7.tgz
  • 1
解压之后删除源文件rm -rf scala-2.11.7.tgz
  • 1
配置环境

在此需要打开/etc/profile文件进行配置

vi /etc/profile
  • 1

在文件的最后插入

export SCALA_HOME=/usr/scala-2.11.7export PATH=$PATH:$SCALA_HOME/bin
  • 1
  • 2
  • 3

插入了之后要使得命令生效,需要的是:

source /etc/profile
  • 1
检测是否安装成功scala -version
  • 1

配置其他Slave主机也安装scala

在此我选择在SparkMaster上使用rsync命令将/usr/scala-2.11.7/目录复制到其他SparkWorker上,另外/etc/profile文件也同样。

rsync -av /usr/scala-2.11.7/ SparkWorker1:/usr/scala-2.11.7/
  • 1
rsync -av /usr/scala-2.11.7/ SparkWorker2:/usr/scala-2.11.7/
  • 1
结言
其实复制的时候多种方式,可以使用scp,但是发现rsync这个命令超级好用,故在此使用rsync进行复制。至此,三台的主机的scale文件已经配置好了。已经挺晚的了,明天再进行配置spark环境吧。

文章出自kwongtai’blog,转载请标明出处!



【转载】        https://blog.csdn.net/weixin_36394852/article/details/75948991


3 个回复

倒序浏览
奈斯
回复 使用道具 举报
回复 使用道具 举报
奈斯,加油加油
回复 使用道具 举报
您需要登录后才可以回帖 登录 | 加入黑马