千家信息网

Hadoop使用时的常见问题以及解决方法

发表于:2025-02-04 作者:千家信息网编辑
千家信息网最后更新 2025年02月04日,本篇内容主要讲解"Hadoop使用时的常见问题以及解决方法",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"Hadoop使用时的常见问题以及解决方法"吧!1:
千家信息网最后更新 2025年02月04日Hadoop使用时的常见问题以及解决方法

本篇内容主要讲解"Hadoop使用时的常见问题以及解决方法",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"Hadoop使用时的常见问题以及解决方法"吧!

1:Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out Answer:
程序里面需要打开多个文件,进行分析,系统一般默认数量是1024,(用ulimit -a可以看到)对于正常使用是够了,但是对于程序来讲,就太少了。 修改办法: 修改2个文件。
/etc/security/limits.conf vi /etc/security/limits.conf 加上:
* soft nofile 102400 * hard nofile 409600
$cd /etc/pam.d/ $sudo vi login
添加 session required /lib/security/pam_limits.so


2:Too many fetch-failures Answer:

出现这个问题主要是结点间的连通不够全面。 1) 检查 、/etc/hosts 要求本机ip 对应 服务器名
要求要包含所有的服务器ip + 服务器名 2) 检查 .ssh/authorized_keys
要求包含所有服务器(包括其自身)的public key


3:处理速度特别的慢 出现map很快 但是reduce很慢 而且反复出现 reduce=0% Answer: 结合第二点,然后

修改 conf/hadoop-env.sh 中的export HADOOP_HEAPSIZE=4000


4:能够启动datanode,但无法访问,也无法结束的错误

在重新格式化一个新的分布式文件时,需要将你NameNode上所配置的dfs.name.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径 DataNode 存放块数据的本地文件系统路径的目录也删除。如本此配置就是在
NameNode上删除
/home/hadoop/NameData,在DataNode上删除/home/hadoop/DataNode1和/home/hadoop/DataNode2。这是因为Hadoop在格式化一个新的分布式文件系统时,每个存储的名字空间都对应了建立时间的那个版本(可以查看/home/hadoop /NameData/current目录下的VERSION文件,上面记录了版本信息),在重新格式化新的分布式系统文件时,最好先删除NameData 目录。必须删除各DataNode的dfs.data.dir。这样才可以使namedode和datanode记录的信息版本对应。

注意:删除是个很危险的动作,不能确认的情况下不能删除!!做好删除的文件等通通备份!!

5:java.io.IOException:

Could not obtain block: blk_194219614024901469_1100 file=/user/hive/warehouse/src_20090724_log/src_20090724_log 出现这种情况大多是结点断了,没有连接上。

6:java.lang.OutOfMemoryError: Java heap space
出现这种异常,明显是jvm内存不够得原因,要修改所有的datanode的jvm内存大小。 Java -Xms1024m -Xmx4096m

一般jvm的最大内存使用应该为总内存大小的一半,我们使用的8G内存,所以设置为4096m,这一值可能依旧不是最优的值。

7: Namenode in safe mode 解决方法

bin/hadoop dfsadmin -safemode leave


8:java.net.NoRouteToHostException: No route to host j解决方法:

sudo /etc/init.d/iptables stop


9:更改namenode后,在hive中运行select 依旧指向之前的namenode地址 这是因为:When youcreate a table, hive actually stores the location of the table (e.g.

hdfs://ip:port/user/root/...) in the SDS and DBS tables in the metastore . So when I bring up a new cluster the master has a new IP, but hive's metastore is still pointing to the locations within the old
cluster. I could modify the metastore to update with the new IP everytime I bring up a cluster. But the easier and simpler solution was to just use an elastic IP for the master
所以要将metastore中的之前出现的namenode地址全部更换为现有的namenode地址

到此,相信大家对"Hadoop使用时的常见问题以及解决方法"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

文件 方法 内存 系统 问题 服务器 服务 常见 常见问题 分布式 地址 格式 版本 目录 路径 不够 信息 内容 名字 大小 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 手机软件开发简历 简历写 高级软件开发工程师 桂林软件开发公司电话 上海铭磐网络技术有限公司 正数网络技术有限公司曹军帅 显示数据库的所有表 众人互联网科技股份有限公司 xbase数据库结构 软件开发的qc数据测试难不难 为什么不能直接修改数据库数据 瑞银集团软件开发怎么样 服务器管理器开机就打开 郭忆谈网易数据库 构成数据库的最基本的数据单元 标准的数据库有哪些问题 数据库管理系统是怎样工作的 揭阳通讯软件开发价格 人脸识别数据库怎么知道是谁的 网络技术基础书本推荐 ftp 设置两个服务器 数据库文件移动 学校网络安全整治情况 高中信息技术初识数据库 珠海学习软件开发 长沙java软件开发教程 常用的中文数据库 美国对中国网络安全吗 数据库系统概论第一章框架总结 东南大学网络安全预推免 打开数据库xscj的命令
0