如何安装 Apache CentOS 7 上的 Spark

在本教程中,我们将向您展示如何安装 Apache CentOS 7 服务器上的 Spark。 对于那些不知道的人, Apache Spark 是一个快速且通用的集群计算系统。 它提供 Java、Scala 和 Python 中的高级 API,以及支持整体执行图表的优化引擎。 它还支持一组丰富的高级工具,包括用于 SQL 和结构化信息处理的 Spark SQL、用于机器学习的 MLlib、用于图形处理的 GraphX 和 Spark Streaming。

本文假设您至少具备 Linux 的基本知识,知道如何使用 shell,最重要的是,您将网站托管在自己的 VPS 上。 安装非常简单,假设您在 root 帐户下运行,如果不是,您可能需要添加 ‘sudo‘ 到命令以获取 root 权限。 我将向您展示逐步安装 Apache 在 CentOS 7 服务器上运行 Spark。

安装 Apache CentOS 7 上的 Spark

第 1 步。首先,让我们首先确保您的系统是最新的。

yum clean all yum -y install epel-release yum -y update

步骤 2. 安装 Java。

为要求安装 java 安装 apache-spark:

yum install java -y

安装后,检查java版本:

java -version

步骤 3. 安装 Scala。

Spark 在安装过程中安装了 Scala,所以我们只需要确保 Java 和 Python 存在即可:

wget https://www.scala-lang.org/files/archive/scala-2.10.1.tgz tar xvf scala-2.10.1.tgz sudo mv scala-2.10.1 /usr/lib sudo ln -s /usr/lib/scala-2.10.1 /usr/lib/scala  PATH=$PATH:/usr/lib/scala/bin

安装后,检查 scala 版本:

scala -version

步骤 4. 安装 Apache 火花。

安装 Apache Spark 使用以下命令:

wget https://www-eu.apache.org/dist/spark/spark-2.2.1/spark-2.2.1-bin-hadoop2.7.tgz tar -xzf spark-2.2.1-bin-hadoop2.7.tgz  SPARK_HOME=$HOME/spark-2.2.1-bin-hadoop2.7  PATH=$PATH:$SPARK_HOME/bin

在启动 spark 之前设置一些环境变量:

echo ' PATH=$PATH:/usr/lib/scala/bin' >> .bash_profile echo ' SPARK_HOME=$HOME/spark-2.2.1-bin-hadoop2.6' >> .bash_profile echo ' PATH=$PATH:$SPARK_HOME/bin' >> .bash_profile

可以手动启动独立的 Spark 集群,即在每个节点上执行启动脚本,或者简单地使用可用的 启动脚本. 为了测试,我们可以在同一台机器上运行主从守护进程:

./sbin/start-master.sh

步骤 5. 配置防火墙 Apache 火花。

firewall-cmd --permanent --zone=public --add-port=6066/tcp firewall-cmd --permanent --zone=public --add-port=7077/tcp firewall-cmd --permanent --zone=public --add-port=8080-8081/tcp firewall-cmd --reload

步骤 6. 访问 Apache 火花。

Apache 默认情况下,Spark 将在 HTTP 端口 7077 上可用。 打开您喜欢的浏览器并导航到 https://yourdomain.com:7077 要么 https://your-server-ip:7077 并完成所需的步骤以完成安装。

恭喜! 您已成功安装 Apache CentOS 7 上的 Spark。感谢您使用本教程进行安装 Apache CentOS 7 系统上的 Spark。 如需更多帮助或有用信息,我们建议您查看 官方 Apache 星火网站.