Hadoop2 namenode联邦实验分析
发表于:2024-11-25 作者:千家信息网编辑
千家信息网最后更新 2024年11月25日,本篇内容主要讲解"Hadoop2 namenode联邦实验分析",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"Hadoop2 namenode联邦实验分析"
千家信息网最后更新 2024年11月25日Hadoop2 namenode联邦实验分析
本篇内容主要讲解"Hadoop2 namenode联邦实验分析",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"Hadoop2 namenode联邦实验分析"吧!
实验的Hadoop版本为2.5.2,硬件环境是5台虚拟机,使用的均是CentOS6.6操作系统,虚拟机IP和hostname分别为:
192.168.63.171 node1.zhch
192.168.63.172 node2.zhch
192.168.63.173 node3.zhch
192.168.63.174 node4.zhch
192.168.63.175 node5.zhch
ssh免密码、防火墙、JDK这里就不在赘述了。虚拟机的角色分配是 node1、2是namendoe节点,node3、4、5为datanode节点。
步骤和 搭建普通hadoop集群 基本相同 ,主要的不同在于 hdfs-site.xml这个配置文件,其余配置和hadoop的安装配置基本一致。
一、配置Hadoop
## 解压[yyl@node1 program]$ tar -zxf hadoop-2.5.2.tar.gz ## 创建文件夹[yyl@node1 program]$ mkdir hadoop-2.5.2/name[yyl@node1 program]$ mkdir hadoop-2.5.2/data[yyl@node1 program]$ mkdir hadoop-2.5.2/tmp## 配置hadoop-env.sh[yyl@node1 program]$ cd hadoop-2.5.2/etc/hadoop/[yyl@node1 hadoop]$ vim hadoop-env.shexport JAVA_HOME=/usr/lib/java/jdk1.7.0_80## 配置yarn-env.sh[yyl@node1 hadoop]$ vim yarn-env.shexport JAVA_HOME=/usr/lib/java/jdk1.7.0_80## 配置slaves[yyl@node1 hadoop]$ vim slaves node3.zhchnode4.zhchnode5.zhch## 配置core-site.xml[yyl@node1 program]$ cd hadoop-2.5.2/etc/hadoop/[yyl@node1 hadoop]$ vim core-site.xml## 配置hdfs-site.xml[yyl@node1 hadoop]$ vim hdfs-site.xml fs.defaultFS hdfs://node1.zhch:9000 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/yyl/program/hadoop-2.5.2/tmp hadoop.proxyuser.hduser.hosts * hadoop.proxyuser.hduser.groups * ##配置 mapred-site.xml[yyl@node1 hadoop]$ cp mapred-site.xml.template mapred-site.xml[yyl@node1 hadoop]$ vim mapred-site.xml dfs.namenode.name.dir file:/home/yyl/program/hadoop-2.5.2/name dfs.datanode.data.dir file:/home/yyl/program/hadoop-2.5.2/data dfs.replication 1 dfs.webhdfs.enabled true dfs.permissions false dfs.nameservices ns1,ns2 dfs.namenode.rpc-address.ns1 node1.zhch:9000 dfs.namenode.http-address.ns1 node1.zhch:50070 dfs.namenode.rpc-address.ns2 node2.zhch:9000 dfs.namenode.http-address.ns2 node2.zhch:50070 ##配置 yarn-site.xml[yyl@node1 hadoop]$ vim yarn-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address node1.zhch:10020 mapreduce.jobhistory.webapp.address node1.zhch:19888 ## 分发到各个节点[yyl@node1 hadoop]$ cd /home/yyl/program/[yyl@node1 program]$ scp -rp hadoop-2.5.2 yyl@node2.zhch:/home/yyl/program/[yyl@node1 program]$ scp -rp hadoop-2.5.2 yyl@node3.zhch:/home/yyl/program/[yyl@node1 program]$ scp -rp hadoop-2.5.2 yyl@node4.zhch:/home/yyl/program/[yyl@node1 program]$ scp -rp hadoop-2.5.2 yyl@node5.zhch:/home/yyl/program/## 在各个节点上设置hadoop环境变量[yyl@node1 ~]$ vim .bash_profile export HADOOP_PREFIX=/home/yyl/program/hadoop-2.5.2export HADOOP_COMMON_HOME=$HADOOP_PREFIXexport HADOOP_HDFS_HOME=$HADOOP_PREFIXexport HADOOP_MAPRED_HOME=$HADOOP_PREFIXexport HADOOP_YARN_HOME=$HADOOP_PREFIXexport HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoopexport PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address node1.zhch:8032 yarn.resourcemanager.scheduler.address node1.zhch:8030 yarn.resourcemanager.resource-tracker.address node1.zhch:8031 yarn.resourcemanager.admin.address node1.zhch:8033 yarn.resourcemanager.webapp.address node1.zhch:8088
二、NameNode
## 在namenode1上执行格式化[yyl@node1 ~]$ hdfs namenode -format -clusterId c1## 在namenode2上执行格式化[yyl@node2 ~]$ hdfs namenode -format -clusterId c1## 在namenode1启动namenode[yyl@node1 ~]$ hadoop-daemon.sh start namenodestarting namenode, logging to /home/yyl/program/hadoop-2.5.2/logs/hadoop-yyl-namenode-node1.zhch.out[yyl@node1 ~]$ jps1177 NameNode1240 Jps## 在namenode2启动namenode[yyl@node2 ~]$ hadoop-daemon.sh start namenodestarting namenode, logging to /home/yyl/program/hadoop-2.5.2/logs/hadoop-yyl-namenode-node2.zhch.out[yyl@node2 ~]$ jps1508 Jps1445 NameNode
三、HDFS联邦检查
http://node1.zhch:50070/
http://node2.zhch:50070/
四、启动DataNode和yarn
[yyl@node1 ~]$ hadoop-daemons.sh start datanodenode4.zhch: starting datanode, logging to /home/yyl/program/hadoop-2.5.2/logs/hadoop-yyl-datanode-node4.zhch.outnode5.zhch: starting datanode, logging to /home/yyl/program/hadoop-2.5.2/logs/hadoop-yyl-datanode-node5.zhch.outnode3.zhch: starting datanode, logging to /home/yyl/program/hadoop-2.5.2/logs/hadoop-yyl-datanode-node3.zhch.out[yyl@node1 ~]$ start-yarn.shstarting yarn daemonsstarting resourcemanager, logging to /home/yyl/program/hadoop-2.5.2/logs/yarn-yyl-resourcemanager-node1.zhch.outnode5.zhch: starting nodemanager, logging to /home/yyl/program/hadoop-2.5.2/logs/yarn-yyl-nodemanager-node5.zhch.outnode3.zhch: starting nodemanager, logging to /home/yyl/program/hadoop-2.5.2/logs/yarn-yyl-nodemanager-node3.zhch.outnode4.zhch: starting nodemanager, logging to /home/yyl/program/hadoop-2.5.2/logs/yarn-yyl-nodemanager-node4.zhch.out[yyl@node1 ~]$ jps1402 Jps1177 NameNode1333 ResourceManager[yyl@node2 ~]$ jps1445 NameNode1539 Jps[yyl@node3 ~]$ jps1214 NodeManager1166 DataNode1256 Jps
下次启动不需要重复上面的步骤,可以直接使用下面的命令启动集群:
sh $HADOOP_HOME/sbin/start-dfs.sh
sh $HADOOP_HOME/sbin/start-yarn.sh
到此,相信大家对"Hadoop2 namenode联邦实验分析"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
配置
联邦
实验
节点
分析
内容
文件
格式
步骤
环境
集群
面的
学习
不同
实用
普通
更深
相同
一致
操作系统
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
通讯业务软件开发
网络安全西游篇之朋友圈泄密
服务器机柜深1200
db2 数据库连接命令
写入数据库代码
网络安全征文大体结构
数据库审计信息安全
怎么在服务器上加网口
辛集云财务软件网络技术
电影下载网站服务器怎样配置
北京班信网络技术有限公司退款
抗体抗原数据库
常见的医学文献数据库有哪些
风云圣剑服务器IP
了解电子表格数据库
查询会产生数据库锁么
数据库系统代码查询
网易云云服务器
戴尔服务器一直报警声开不了机
网络安全素养课的启示
我国网络安全与犯罪案情况
软件开发职级评审优势项怎样写
从哪里看本机网络安全密码
陕西云淼互联网科技怎么样
汽车电子软件开发哪个专业可以做
电信宽带访问不了联通服务器
均衡负载用什么服务器
医院网络安全工作方向
php 面试题优化数据库
网络技术架构师是啥