Spark stdout日志乱码
发表于:2024-11-23 作者:千家信息网编辑
千家信息网最后更新 2024年11月23日,采用Apache版本spark1.2.1时没有出现乱码,但spark-1.1.0-cdh6.2.1版本中,在分布处理的map函数里对数据进行打印输出进行debug时val rs = rdd.filte
千家信息网最后更新 2024年11月23日Spark stdout日志乱码
采用Apache版本spark1.2.1时没有出现乱码,但spark-1.1.0-cdh6.2.1版本中,在分布处理的map函数里对数据进行打印输出进行debug时
val rs = rdd.filter(e => {val (lable,text) = (e._2(2), e._2(3)); m.filterItem(lable, text) }) .reduceByKey((x,y) => m.merge(x, y)) .map{case (x,y) => {println(x + "\t" + y); (x._1.toLong, x._2, y(1), y(3) )}}
发现stdout文件里面中文内容乱码
(5,?????????????) List(????????????? ? ??, http://xinligs.cn.china.cn/, A0, ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,, false, 4, 7)????????????? 17 ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,
在/var/run/spark/work/目录中查看对应app-20150605171809-0003中的stdout文件
stderr: ASCII C++ program textstdout: UTF-8 Unicode text, with very long lines
stdout是ASCII编码的,对中文肯定显示不了
在使用service启动Java程序时,机器上hadoop中stdout输出的日志也是是中文乱码
修改 /sbin/service ,在env -i 后面加上 LANG="$LANG"
重启spark的各节点
service spark-master restartservice spark-worker restart
最后日志中文显示正常
中文
乱码
日志
文件
版本
输出
内容
函数
数据
机器
目录
程序
编码
节点
C++
UTF-8
处理
肯定
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
php抢票软件开发原理
为什么有的服务器恐龙都是炫彩
智能自动化服务器
笔记本用vga线连接服务器
天秤服务器
天赋测试软件开发
长寿区技术软件开发服务公司
软件开发移动开发方向
无线传感器网络技术第二版
江阴运营软件开发收费标准
吃鸡服务器为啥关闭
浙江企朋网络技术有限公司
教学软件开发一对一
网络安全控制包括哪些内容
农行乌镇互联网智能科技银行
文件服务器管理在哪里
NX报错客户端的版本高于服务器
中国的互联网服务器建设
数据库如何查询以字母开头的
留守儿童网络安全教育活动
电子病历网络安全解决方案
嵌入式软件开发必读书籍
gdc服务器如何
北京邮储软件开发薪资大概多少
外网香港服务器怎么买安全
如何保障我的世界服务器安全
浙江建设银行软件开发中心
如何进行网络安全管理
1)数据库安全性的定义
暑假青少年网络安全