千家信息网

Hadoop中yarn和mapreduce的示例分析

发表于:2025-02-03 作者:千家信息网编辑
千家信息网最后更新 2025年02月03日,这篇文章主要介绍了Hadoop中yarn和mapreduce的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。准备Linux环境
千家信息网最后更新 2025年02月03日Hadoop中yarn和mapreduce的示例分析

这篇文章主要介绍了Hadoop中yarn和mapreduce的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

  1. 准备Linux环境
    1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok
    回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.1.100 子网掩码:255.255.255.0 -> 点击确定
    在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
    1.1修改主机名
    vim /etc/sysconfig/network

    NETWORKING=yes
    HOSTNAME=itcast ###

    1.2修改IP
    两种方式:
    第一种:通过Linux图形界面进行修改(强烈推荐)
    进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply

    第二种:修改配置文件方式(屌丝程序猿专用)
    vim /etc/sysconfig/network-scripts/ifcfg-eth0

    DEVICE="eth0"
    BOOTPROTO="static" ###
    HWADDR="00:0C:29:3C:BF:E7"
    IPV6INIT="yes"
    NM_CONTROLLED="yes"
    ONBOOT="yes"
    TYPE="Ethernet"
    UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
    IPADDR="192.168.1.101" ###
    NETMASK="255.255.255.0" ###
    GATEWAY="192.168.1.1" ###

    1.3修改主机名和IP的映射关系
    vim /etc/hosts

    192.168.1.101 hadoop02
    1.4关闭防火墙
    #查看防火墙状态
    service iptables status
    #关闭防火墙
    service iptables stop
    #查看防火墙开机启动状态
    chkconfig iptables --list
    #关闭防火墙开机启动
    chkconfig iptables off

    1.5重启Linux
    reboot

    2.安装JDK
    2.1上传alt+p 后出现sftp窗口,然后put d:\xxx\yy\ll\jdk-7u_65-i585.tar.gz

    2.2解压jdk
    #创建文件夹
    mkdir /home/hadoop/app
    #解压
    tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app

    2.3将java添加到环境变量中
    vim /etc/profile
    #在文件最后添加
    export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
    export PATH=$PATH:$JAVA_HOME/bin

    #刷新配置
    source /etc/profile

    3.安装hadoop2.4.1
    先上传hadoop的安装包到服务器上去/home/hadoop/(注意32位和64位的区别)

    cp hadoop-2.4.1.tar.gz /home/hadoop/

    cd /home/hadoop/

    tar -zxvf hadoop-2.4.1.tar.gz

    [root@hadoop02 hadoop]# cd hadoop-2.4.1
    [root@hadoop02 hadoop-2.4.1]# cd etc
    [root@hadoop02 etc]# cd hadoop
    伪分布式需要修改5个配置文件
    3.1配置hadoop
    第一个:hadoop-env.sh
    vim hadoop-env.sh
    #第27行
    export JAVA_HOME=/usr/lib/java/java-7-sun

    第二个:core-site.xml



    fs.defaultFS
    hdfs://hadoop02:9000



    hadoop.tmp.dir
    /home/hadoop/hadoop-2.4.1/tmp


    第三个:hdfs-site.xml hdfs-default.xml (3)


    dfs.replication
    1


    第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
    mv mapred-site.xml.template mapred-site.xml
    vim mapred-site.xml


    mapreduce.framework.name
    yarn


    第五个:yarn-site.xml


    yarn.resourcemanager.hostname
    hadoop0



    yarn.nodemanager.aux-services
    mapreduce_shuffle


    3.2将hadoop添加到环境变量

    vim /etc/profile
    export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
    export HADOOP_HOME=/home/hadoop/hadoop-2.4.1
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    source /etc/profile

    3.3格式化namenode(是对namenode进行初始化)
    hdfs namenode -format (hadoop namenode -format)

    3.4启动hadoop
    先启动HDFS

    [root@hadoop02 hadoop]# cd /home/hadoop/hadoop-2.4.1


    sbin/start-dfs.sh

    再启动YARN
    sbin/start-yarn.sh

    3.5验证是否启动成功
    使用jps命令验证
    27408 NameNode
    28218 Jps
    27643 SecondaryNameNode
    28066 NodeManager
    27803 ResourceManager
    27512 DataNode

    http://192.168.1.101:50070 (HDFS管理界面)
    http://192.168.1.101:8088 (MR管理界面)

  2. 伪分布式集群的测试[root@hadoop02 hadoop-2.6.0]# hadoop fs -ls hdfs://hadoop02:9000/

    [root@hadoop02 hadoop]#cd /home/hadoop

    [root@hadoop02 hadoop]#hadoop fs -put hadoop-2.6.0-x64.tar.gz hdfs://hadoop02:9000/
    [root@hadoop02 hadoop]# hadoop fs -ls hdfs://hadoop02:9000/

  3. -rw-r--r-- 1 root supergroup 180197035 2015-12-01 05:06 hdfs://hadoop02:9000/hadoop-2.6.0-x64.tar.gz

  4. 文件的存放目录[root@hadoop02 subdir0]# pwd
    /home/hadoop/hadoop-2.6.0/tmp/dfs/data/current/BP-493792533-192.168.88.155-1448973412341/current/finalized/subdir0/subdir0

  5. 下载文件hadoop fs -get /hadoop-2.6.0-x64.tar.gz

    mappreduce程序测试

  6. [root@hadoop02 subdir0]#/home/hadoop/hadoop-2.6.0/share/hadoop/mapreduce

  7. [root@hadoop02 mapreduce]# vi test.data

    文件内容如下

    hello tom
    hello jim
    hello kitty
    hello angelababy
    hello dingcheng
    how are you .baby .do you have kong today wangshan?
    can you have supper with me?
    if you can't
    na sure you are gen xiaoming haave supper
    i will shengqi de

    [root@hadoop02 mapreduce]# hadoop fs -mkdir /wc
    [root@hadoop02 mapreduce]# hadoop fs -mkdir /wc/srcdata
    [root@hadoop02 mapreduce]# hadoop -put test.data /wc/srcdata
    [root@hadoop02 mapreduce]# hadoop fs -put test.data /wc/srcdata
    [root@hadoop02 mapreduce]# hadoop fs -ls /
    [root@hadoop02 mapreduce]# hadoop fs -ls /wc/srcdata
    [root@hadoop02 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /wc/srcdata /wc/output
    [root@hadoop02 mapreduce]# hadoop fs -ls /wc/output

  8. hadoop fs -cat /wc/output/part-r-00000

  9. hadoop fs#相当于帮助命令

感谢你能够认真阅读完这篇文章,希望小编分享的"Hadoop中yarn和mapreduce的示例分析"这篇文章对大家有帮助,同时也希望大家多多支持,关注行业资讯频道,更多相关知识等着你来学习!

0