千家信息网

怎么在centOS7系统中安装Spark

发表于:2024-09-26 作者:千家信息网编辑
千家信息网最后更新 2024年09月26日,这篇文章给大家介绍怎么在centOS7系统中安装Spark,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。环境说明:操作系统: centos7 64位 3台centos7-1 19
千家信息网最后更新 2024年09月26日怎么在centOS7系统中安装Spark

这篇文章给大家介绍怎么在centOS7系统中安装Spark,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

环境说明:

操作系统: centos7 64位 3台
centos7-1 192.168.190.130 master
centos7-2 192.168.190.129 slave1
centos7-3 192.168.190.131 slave2

安装spark需要同时安装如下内容:

jdk scale

1.安装jdk,配置jdk环境变量

这里不讲如何安装配置jdk,自行百度。

2.安装scala

 #tar -zxvf scala-2.13.0-M4.tgz  再次修改/etc/profile文件,添加如下内容:  export SCALA_HOME=$WORK_SPACE/scala-2.13.0-M4  export PATH=$PATH:$SCALA_HOME/bin  #source /etc/profile   // 让其立即生效  #scala -version      //查看scala是否安装完成

3.安装spark

Source code: Spark 源码,需要编译才能使用,另外 Scala 2.11 需要使用源码编译才可使用

Pre-build with user-provided Hadoop: "Hadoop free" 版,可应用到任意 Hadoop 版本
Pre-build for Hadoop 2.7 and later: 基于 Hadoop 2.7 的预先编译版,需要与本机安装的 Hadoop 版本对应。可选的还有 Hadoop 2.6。我这里因为装的hadoop是3.1.0,所以直接安装for hadoop 2.7 and later的版本。

注:hadoop的安装请查看我的上一篇博客,不在重复描述。

centOS7下Spark安装配置#mkdir spark #cd /usr/spark#tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz#vim /etc/profile#添加spark的环境变量,加如PATH下、export出来#source /etc/profile#进入conf目录下,把spark-env.sh.template拷贝一份改名spark-env.sh#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf#cp spark-env.sh.template spark-env.sh#vim spark-env.shexport SCALA_HOME=/usr/scala/scala-2.13.0-M4export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.171-8.b10.el7_5.x86_64export HADOOP_HOME=/usr/hadoop/hadoop-3.1.0export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport SPARK_HOME=/usr/spark/spark-2.3.1-bin-hadoop2.7export SPARK_MASTER_IP=masterexport SPARK_EXECUTOR_MEMORY=1G#进入conf目录下,把slaves.template拷贝一份改名为slaves#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf#cp slaves.template slaves#vim slaves#添加节点域名到slaves文件中#master   //该域名为centos7-1的域名#slave1   //该域名为centos7-2的域名#slave2   //该域名为centos7-3的域名

启动spark

#启动spark之前先要把hadoop节点启动起来#cd /usr/hadoop/hadoop-3.1.0/#sbin/start-all.sh#jps //检查启动的线程是否已经把hadoop启动起来了#cd /usr/spark/spark-2.3.1-bin-hadoop2.7#sbin/start-all.sh备注:在slave1\slave2节点上也必须按照上面的方式安装spark,或者直接拷贝一份到slave1,slave2节点上#scp -r /usr/spark root@slave1ip:/usr/spark

启动信息如下:

starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.com.cn.out
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.com.cn.out
master: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-master.out

测试Spark集群:

用浏览器打开master节点上的spark集群url:http://192.168.190.130:8080/

关于怎么在centOS7系统中安装Spark就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。

节点 内容 域名 系统 拷贝 版本 环境 编译 配置 中安 变量 文件 更多 源码 目录 集群 帮助 不错 操作系统 信息 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 高通平台软件开发 cbm属于哪种类型的数据库 武汉软件开发费用是多少 互联网教育科技金融 软件开发事业部是干嘛的 G01服务器安全管理系统 网络安全技术培训费用 进入网络安全行业前景 团委网络安全宣传周倡议书 深圳千陌网络技术有限公司 网络安全隐患详情 医学人工智能数据库发展规划 安全合规软件开发管理制度 光明区网络技术进出口联系方式 网络安全学科包含 广州微米网络技术有限公司 计算机网络技术的三大优势 青海线下生鲜配送软件开发 河北大学网络安全建设 大连锦程网络技术有限公司电话 上海网络技术分类产品介绍 网络安全法的规定什么部门负责 迪瑞特互联网络科技 八宝服务器 小学生网络安全问题的案例 安徽虚拟化服务器云空间 osi计算机网络安全 诛仙手游服务器等级有什么用 西安软件开发定制需要多少钱 金山区工业软件开发
0