hadoop&spark安装(下)
发表于:2025-01-31 作者:千家信息网编辑
千家信息网最后更新 2025年01月31日,上一遍文章中其实最主要的就是JAVA环境变量以及hadoop环境变量的设置,这两个设置好了的话,运行hadoop基本上不会出问题。在hadoop的基础上安装spark好简单。安装Spark之前需要先安
千家信息网最后更新 2025年01月31日hadoop&spark安装(下)
上一遍文章中其实最主要的就是JAVA环境变量以及hadoop环境变量的设置,这两个设置好了的话,运行hadoop基本上不会出问题。
在hadoop的基础上安装spark好简单。
安装Spark之前需要先安装Hadoop集群,因为之前已经安装了hadoop,所以我直接在之前的hadoop集群上安装spark。
硬件环境:
hddcluster1 10.0.0.197 redhat7
hddcluster2 10.0.0.228 centos7 这台作为master
hddcluster3 10.0.0.202 redhat7
hddcluster4 10.0.0.181 centos7
软件环境:
scala-2.11.7
spark-2.0.2-bin-hadoop2.7.tgz
#所有操作用hadoop
基本流程:
1、master解压scala-2.11.7和spark-2.0.2-bin-hadoop2.7.tgz到相应的目录
2、配置scala和spark环境变量
3、修改配置文件
4、拷贝scala和spark到各个节点,授权
5、启动spark集群
#hadoop用户下操作,下载scala,安装wget http://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgztar -zxvf scala-2.11.7.tgz mv scala-2.11.7 /usr/local/scalasudo mv scala-2.11.7 /usr/local/scalavim .bashrc #添加export SCALA_HOME=/usr/local/scalaexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$SCALA_HOME/binsource .bashrc[hadoop@hddcluster2 ~]$ scala -versionScala code runner version 2.11.7 -- Copyright 2002-2013, LAMP/EPFL
#在官网下载spark-2.0.2-bin-hadoop2.7.tgztar -zxvf spark-2.0.2-bin-hadoop2.7.tgzmv spark-2.0.2-bin-hadoop2.7 sparksudo mv spark /usr/local/vim .bashrc #添加export SPARK_HOME=/usr/local/sparkexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME
#修改spark配置文件cd /usr/local/spark/confcp spark-env.sh.template spark-env.shvi spark-env.sh #添加下面内容###jdk direxport JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.111-2.b15.el7_3.x86_64###scala direxport SCALA_HOME=/usr/local/scala###the ip of master node of sparkexport SPARK_MASTER_IP=10.0.0.228###the max memory size of workerexport SPARK_WORKER_MEMORY=8G###hadoop configuration file direxport HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop/#修改slavecp slaves.template slavesvi slaves #把localhost改为下面内容hddcluster1hddcluster2hddcluster3hddcluster4
#把/usr/local/spark 和 /usr/local/scala打包,然后复制到slave节点、cd /usr/localtar -zcf ~/master.spark.tar.gz ./sparktar -zcf ~/master.scala.tar.gz ./scalascp master.spark.tar.gz hddcluster1:~scp master.scala.tar.gz hddcluster1:~#登录各个节点进行解压到/usr/localtar -zxf master.spark.tar.gz -C /usr/local/tar -zxf master.scala.tar.gz -C /usr/local/chown -R hadoop:hadoop /usr/local/sparkchown -R hadoop:hadoop /usr/local/scala再配置.bashrc环境变量和master的一样。加上hadoop上一篇的.bashrc内容是这样子:#scalaexport SCALA_HOME=/usr/local/scala#sparkexport SPARK_HOME=/usr/local/spark#java and hadoopexport JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.111-2.b15.el7_3.x86_64export HADOOP_HOME=/usr/local/hadoopexport HADOOP_INSTALL=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOMEexport HADOOP_PREFIX=$HADOOP_HOMEexport HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib:$HADOOP_PREFIX/lib/native"到此Spark集群搭建完毕
.启动Spark集群:启动Spark之前需要先将hadoop的dfs以及yarn启动。/usr/local/spark/sbin/start-all.sh 启动所有服务之后,在命令行输入jps:[hadoop@hddcluster2 ~]$ jps29601 ResourceManager32098 SparkSubmit29188 DataNode29364 SecondaryNameNode29062 NameNode29915 NodeManager30251 Master30380 Worker30062 JobHistoryServer18767 Jps 比hadoop集群启动时多了Master和worker/usr/local/spark/bin/spark-shell.sh出现scala>时说明成功。在浏览器中输入10.0.0.228:8080时,会看到如下图,有4个Worker
环境
集群
变量
配置
内容
节点
文件
上一
输入
成功
两个
命令
基础
就是
拷贝
文章
样子
流程
浏览器
用户
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
面试 软件开发中遇到的困难
arcgis许可管理服务器
惠普塔式服务器的系统
分布式数据库事务方案
数据中台接入oracle数据库
网络技术有限公司的市场总监
数据库最后一个窗口的作用
雾里看花下载软件开发
服务器ssd硬盘作用
数据库建立表的关联关系
网络安全博士如何
服务器io口是管理口吗
洛阳理工网络安全实验
软件开发公司是第几产业
企业服务器在线看cad图
数据库技术中的专业素质培养
安全性数据库矛盾
设置qq邮箱pop服务器
网络安全法的有关试题
数据存到服务器
我的世界没有服务器可以联机吗
xmpp搭载的数据库
临沂城阳软件开发有限公司
多税号税控服务器是什么意思
图书借阅系统数据库设计
国产服务器怎么更改时间
服务器404找不到文件怎么办
爬虫可以转行网络安全工程师吗
网络技术应急技术相关设备
湖南软件开发大学