Hadoop文件合并——Hadoop In Action上的一个示例
发表于:2024-12-04 作者:千家信息网编辑
千家信息网最后更新 2024年12月04日,上一篇文章已经详细的说明了如何在Eclipse下面远程连接Hadoop集群,进行Hadoop程序开发。这里说明一个Hadoop In Action书上的一个示例,可能是由于Hadoop版本更新的问题,
千家信息网最后更新 2024年12月04日Hadoop文件合并——Hadoop In Action上的一个示例
上一篇文章已经详细的说明了如何在Eclipse下面远程连接Hadoop集群,进行Hadoop程序开发。这里说明一个Hadoop In Action书上的一个示例,可能是由于Hadoop版本更新的问题,导致树上的一些个示例程序没有办法正常执行。
整个代码的工作就是把本地目录下个若干个小文件,合并成一个较大的文件,写入到HDFS中。话不多说,代码如下:
补充说明:后来发现,书上的源代码是没有问题的,只不过是书上的源代码要打成jar包,放在集群的机器上去运行,如果在Eclipse下面调试运行的话,就会出现问题。出现问题的原因如下
//读取本地文件系统,如果要想正确运行,必须要打成jar包,在hadoop集群的机器上面运行FileSystem hdfs = FileSystem.get(conf);FileSystem local = FileSystem.getLocal(conf);//通过URI可以远程读取HDFS,所以Eclipse下面调试要使用这种写法,打成jar包这种形式也是可以的FileSystem hdfs = FileSystem.get(URI.create(serverPath), conf);FileSystem local = FileSystem.getLocal(conf);
package com.hadoop.examples;import java.io.IOException;import java.net.URI;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataInputStream;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileStatus;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;/** * @Package * @ClassName: PutMerge * @Description: 读取本地目录下的文件,写入到HDFS,在写入的过程中, * 把这三个文件合成一个文件 * @author lxy * @date 2015年3月25日 上午9:59:38 * @version V1.0 */public class PutMerge { public static void main(String[] args) throws IOException { // 输入目录,目录下有三个txt,文章最后面会儿给出文件内容 String localPathStr = "E:\\test"; // 输出目录,HDFS路径,文章最后面会给出合并之后的文件内容 String serverPath = "hdfs://192.168.3.57:8020/user/lxy/mergeresult/merge.txt"; //输入目录,是一个本地目录 Path inputDir = new Path(localPathStr); //输出目录,是一个HDFS路径 Path hdfsFile = new Path(serverPath); Configuration conf = new Configuration(); /** * Hadoop in Action的原代码如下 * FileSystem hdfs = FileSystem.get(conf); * 但是这样的话,使用Eclipse调试时,执行下面的语句是就会报异常,因为它是读取本地 * 文件系统 * FSDataOutputStream out = hdfs.create(hdfsFile); */ // 根据上面的serverPath,获取到的是一个org.apache.hadoop.hdfs.DistributedFileSystem对象 FileSystem hdfs = FileSystem.get(URI.create(serverPath), conf); FileSystem local = FileSystem.getLocal(conf); try { //获取输入目录下的文件以及文件夹列表 FileStatus[] inputFiles = local.listStatus(inputDir); //在hdfs上创建一个文件 FSDataOutputStream out = hdfs.create(hdfsFile); for (int i = 0; i < inputFiles.length; i++) { System.out.println(inputFiles[i].getPath().getName()); //打开本地输入流 FSDataInputStream in = local.open(inputFiles[i].getPath()); byte buffer[] = new byte[256]; int bytesRead = 0; while ((bytesRead = in.read(buffer)) > 0) { //往hdfs上的文件写数据 out.write(buffer, 0, bytesRead); } //释放资源 in.close(); } //释放资源 out.close(); } catch (IOException e) { e.printStackTrace(); } }}
我的测试目录下有三个txt文件
1.txt
1 hello Hadoop2 hello Hadoop3 hello Hadoop4 hello Hadoop5 hello Hadoop6 hello Hadoop7 hello Hadoop
2.txt
8 hello Hadoop9 hello Hadoop10 hello Hadoop11 hello Hadoop12 hello Hadoop13 hello Hadoop14 hello Hadoop
3.txt
15 hello Hadoop16 hello Hadoop17 hello Hadoop18 hello Hadoop19 hello Hadoop20 hello Hadoop21 hello Hadoop
合并之后的文件如下所示:
文件
目录
问题
运行
三个
代码
集群
输入
示例
下有
内容
文章
机器
源代码
程序
系统
资源
路径
面的
输出
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
数据库加固论文
软件开发工程师招聘流程
2003服务器怎么变成c盘
江阴常规软件开发价格表
access数据库地址
网络安全教育绘画图片中学生
数据库开发工具MySQL5.7
建瓯定制软件开发
关于网络安全相关内容的海报
4年级网络安全教演讲稿
石家庄市委党校网络安全
学校网络技术选型
开关oracle数据库
电脑网络服务器登录
软件开发项目管理证
从个人的角度看网络安全法的意义
可以用qq支付的主题软件开发
11系统怎么设置代理服务器
数据库访问封装
在vultr上服务器安全性
腾讯云root数据库密码忘了
数据库中如何重启sa用户名
旧的笔记本怎么做成服务器
蔡甸网络安全学校
软件开发科研立项报告书
负责网络安全的it是什么
网络安全操作标准规范
河南鑫致网络技术公司
中国网安网络安全宣传周
一般服务器架构