学分高考 IT技术

怎么安装Spark

发布时间: 2022-03-17 19:24:01

怎么安装Spark?Spark支持很多版本,目前主流的是1.6.0版本,为了便于学习先下载预编译版本,访问http://spark.apache.org选择Download命令,之后进入下载界面。

在Choose a Spark release下拉列表框中选择1.6.0版本,这是最新的稳定版本。在Choose a package type下拉列表框中选择Pre-built for Hadoop 2.6 andlater选项。这里选择源代码版本或预编译版本,由于之前安装的Hadoop为2.6版本,这里选择此项,读者可以根据实际环境进行选择。

在Choose a downloadtype下拉列表框中选择Direct Download选项直接进行下载,之后单击出现的链接地址就可以下载了。下载界面如图1所示。

图1 下载界面

此外还需要下载Scala:访问http://www.scala-lang.org/download/下载最新的稳定版本,下载位置如图2所示。

图2 Scala下载位置

环境准备

由于Spark是采用Scala语言编写的,因此需要在Java虚拟机(JVM)上面运行,为了更好地兼容其他的大数据软件,这里建议至少在Java 7版本以上,如果需要进行Scala和Python的开发,需要安装Scala和Python的解释器(Python解释器安装方法请参考附录)。

首先要确保Java环境变量存在,同上一节Hadoop配置,确保/etc/bashrc存在以下代码行:

3.安装

将Scala安装到/opt目录,使用命令如下:

安装完成后,需要设置环境变量。确保以下配置在/etc/bashrc文件中存在:

安装Spark命令如下:

将Spark安装目录设置为环境变量加入/etc/bashrc文件,命令如下:

温馨提示:
本文【怎么安装Spark】由作者教培参考提供。该文观点仅代表作者本人,学分高考系信息发布平台,仅提供信息存储空间服务,若存在侵权问题,请及时联系管理员或作者进行删除。
我们采用的作品包括内容和图片部分来源于网络用户投稿,我们不确定投稿用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的权利,请联系我站将及时删除。
内容侵权、违法和不良信息举报
Copyright @ 2024 学分高考 All Rights Reserved 版权所有. 湘ICP备17021685号