前言在安装Spark之前,我们需要安装Scala语言的支持。在此我选择的是scala-2.11.7版本。 scala-2.11.7下载为了方便,我现在我的SparkMaster主机上先安装,把目录打开到/usr目录下,与我的Java目录相一致。 wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz下载之后解压tar -zxvf scala-2.11.7.tgz解压之后删除源文件rm -rf scala-2.11.7.tgz配置环境在此需要打开/etc/profile文件进行配置 vi /etc/profile在文件的最后插入 export SCALA_HOME=/usr/scala-2.11.7export PATH=$PATH:$SCALA_HOME/bin插入了之后要使得命令生效,需要的是: source /etc/profile检测是否安装成功scala -version配置其他Slave主机也安装scala在此我选择在SparkMaster上使用rsync命令将/usr/scala-2.11.7/目录复制到其他SparkWorker上,另外/etc/profile文件也同样。 rsync -av /usr/scala-2.11.7/ SparkWorker1:/usr/scala-2.11.7/rsync -av /usr/scala-2.11.7/ SparkWorker2:/usr/scala-2.11.7/结言其实复制的时候多种方式,可以使用scp,但是发现rsync这个命令超级好用,故在此使用rsync进行复制。至此,三台的主机的scale文件已经配置好了。已经挺晚的了,明天再进行配置spark环境吧。
文章出自kwongtai’blog,转载请标明出处!
【转载】 https://blog.csdn.net/weixin_36394852/article/details/75948991
|