千家信息网

SPARK standlone安装配置

发表于:2024-12-03 作者:千家信息网编辑
千家信息网最后更新 2024年12月03日,集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:1DEV-HADOOP-01192.168.9.1102DEV-HADOOP-02192.168.9.1113DEV-HADOOP-03
千家信息网最后更新 2024年12月03日SPARK standlone安装配置

集群一共有3台机器,集群使用hadoop用户运行,3台机器如下:

1DEV-HADOOP-01192.168.9.110
2DEV-HADOOP-02192.168.9.111
3DEV-HADOOP-03192.168.9.112


  1. 配置集群间hadoop用户的无密码登录

  2. 配置每台机器的/etc/hosts

  3. 安装JDK1.8.0_60

  4. 安装scala

    1. 下载scala-2.11.7.tar

    2. 把scala-2.11.7.tar解压到/data/server目录

    3. 设置环境变量 /etc/profile

      1. export SCALA_HOME=/usr/scala/scala-2.11.7

      2. 使配置生效 source /etc/profile

  5. 安装spark

    1. 下载spark-1.5.0.tar

    2. 把spark-1.5.0.tar解压到/data/server目录

    3. 配置环境变量 /etc/profile

      1. export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6

      2. export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

      3. 使配置生效 source /etc/profile

    4. 修改spark配置文件

      1. spark-env.sh配置文件

        1. export SCALA_HOME=/data/server/scala-2.11.7

        2. export JAVA_HOME=/usr/java/jdk1.8.0_60/

        3. export SPARK_MASTER_IP=DEV-HADOOP-01

        4. export SPARK_WORKER_MEMORY=2048m

      2. slaves配置文件

        1. DEV-HADOOP-02

        2. DEV-HADOOP-03

  6. 启动spark集群

    1. sbin/start-all.sh

  7. 集群启动验证

    1. 执行jps命令,master节点可以看到Master进程,slave可以看到Worker进程

  8. 查看Spark UI

    1. http://192.168.9.110:8080/

  9. 关闭集群

    1. sbin/stop-all.sh

0