千家信息网

Hadoop学习之第一章节:Hadoop配置安装

发表于:2024-11-11 作者:千家信息网编辑
千家信息网最后更新 2024年11月11日,一、配置虚拟机三台1.网络配置虚拟化软件: Vmware Workstations 10.7zLinux系统: Centos 6.5-x86_64采用4台安装Linux环境的机器来构建一个小规模的分布
千家信息网最后更新 2024年11月11日Hadoop学习之第一章节:Hadoop配置安装




一、配置虚拟机三台


1.网络配置


虚拟化软件: Vmware Workstations 10.7z

Linux系统: Centos 6.5-x86_64



采用4台安装Linux环境的机器来构建一个小规模的分布式集群。





集群机器详细信息





1.虚拟化的网络配置方式:桥接网络

2.IP地址设置为固定IP地址

3.主机名配置,需要修改一下地方


(1)配置vi /etc/hostname


(2)配置vi /etc/sysconfig/network


(3)配置vi /etc/hosts




4.关闭防火墙


1) 重启后生效


开启: chkconfig iptables on

关闭: chkconfig iptables off



2) 即时生效,重启后失效


开启: service iptables start

关闭: service iptables stop


配置完成后效果:


三个节点相互ping通

主机名可以正常解析

可以正常ping通外网


2. JAVA系统环境配置


Java的安装


Rpm -qa| grep java 查看系统已安装的java


卸载已安装的java


rpm -e -nodeps (包名称)



配置环境变量 vi /etc/profile


#set java environment

export JAVA_HOME=/usr/java/jdk1.8.0_77

export JRE_HOME=/usr/java/jdk1.8.0_77/jre

export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH


配置完成后效果为:






3.节点之间的无密码登录


SSH设置需要在集群上做不同的操作,如启动,停止,分布式守护shell操作。认证不同的Hadoop用户,需要一种用于Hadoop用户提供的公钥/私钥对,并用不同的用户共享。


下面的命令用于生成使用SSH键值对。复制公钥形成 id_rsa.pub 到authorized_keys 文件中,并提供拥有者具有authorized_keys文件的读写权限。



命令: ssh-keygen -t rsa

命令:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys


在其他节点上同样命令后,把所有节点的 id_rsa.pub 内容添加到authorized_keys,然后将authorized_keys 分发到所有节点的/.ssh/目录下


配置完成后效果为:




二、Hadoop配置安装



本文档的Hadoop版本为:hadoop-2.6.4.tar.gz


1.在Namenode节点上进行以下配置


下载 Hadoop 以后,可以操作Hadoop集群以以下三个支持模式之一:


本地/独立模式:下载Hadoop在系统中,默认情况下之后,它会被配置在一个独立的模式,用于运行Java程序。


模拟分布式模式:这是在单台机器的分布式模拟。Hadoop守护每个进程,如 hdfs, yarn, MapReduce 等,都将作为一个独立的java程序运行。这种模式对开发非常有用.


完全分布式模式:这种模式是完全分布式的最小两台或多台计算机的集群。我们使用这种模式在未来的章节中。




(1)文件 core-site.xml 改为下面的配置:


fs.default.name

hdfs://192.168.1.220:9000

hadoop.proxyuser.root.hosts

192.168.1.220

hadoop.proxyuser.root.groups

*


(2)文件 hdfs-site.xml改为下面的配置:


dfs.name.dir

/usr/hadoop/name


dfs.data.dir

/usr/hadoop/data


dfs.replication

2


dfs.support.append

true


dfs.datanode.address

0.0.0.0:50110



(3)文件 mapred-site.xml 改为下面的配置:


mapred.job.tracker

http://192.168.1.220:9001


mapried.local.dir

/usr/hadoop/var



(4)文件slaves改为下面的配置:


Master-Hadoop


Slave1-Hadoop


Slave2-Hadoop



(5)文件hadoop-env.sh改为下面的配置:


# The java implementation to use.

export JAVA_HOME=/usr/java/jdk1.8.0_77






2.在/usr/hadooop/下创新配置中的文件夹


Mkdir tmp

Mkdir logs

Mkdir data





3.hadoop命令操作

(1)使用命令 hdfs namenode -format 如下设置名称节点


(2)启动命令 /usr/Hadoop/etc/Hadoop/start-all.sh


(3)查看节点状态 Hadoop dfsadmin -report





4.网页节点显示


http://Master-Hadoop:50070




http:// Master-Hadoop:8088












参考网址:


http://itindex.net/detail/46949-wordcount

http://www.cnblogs.com/scotoma/archive/2012/09/18/2689902.html

http://dblab.xmu.edu.cn/blog/install-hadoop-cluster/

http://192.168.1.200:50070/dfshealth.html#tab-datanode

http://www.tuicool.com/articles/veim6bU

http://my.oschina.net/u/570654/blog/112780

http://blog.csdn.net/ab198604/article/details/8271860

http://www.cnblogs.com/shishanyuan/category/709023.html

http://zhidao.baidu.com/link?url=K6w-swVrs7VtvcG8iF1UgQ4dBk3e7YCHoRwA3kjcA3D4fiE2RYdKQNN5h9NJCgg7z5HEvyu7Gyt1jLe7-UMvmGbRoISDTIN6MkcVPM2vbOa

http://blog.csdn.net/tralonzhang/article/details/7773824

http://www.cnblogs.com/shishanyuan/p/4177908.html

http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html



文件列表为:


CentOS-6.5-x86_64-bin-DVD1.iso

hadoop-2.6.4.tar.gz

jdk-8u77-linux-x64.rpm

putty_V0.63.0.0.43510830.exe







0