Spark stdout日志乱码
发表于:2025-02-13 作者:千家信息网编辑
千家信息网最后更新 2025年02月13日,采用Apache版本spark1.2.1时没有出现乱码,但spark-1.1.0-cdh6.2.1版本中,在分布处理的map函数里对数据进行打印输出进行debug时val rs = rdd.filte
千家信息网最后更新 2025年02月13日Spark stdout日志乱码
采用Apache版本spark1.2.1时没有出现乱码,但spark-1.1.0-cdh6.2.1版本中,在分布处理的map函数里对数据进行打印输出进行debug时
val rs = rdd.filter(e => {val (lable,text) = (e._2(2), e._2(3)); m.filterItem(lable, text) }) .reduceByKey((x,y) => m.merge(x, y)) .map{case (x,y) => {println(x + "\t" + y); (x._1.toLong, x._2, y(1), y(3) )}}
发现stdout文件里面中文内容乱码
(5,?????????????) List(????????????? ? ??, http://xinligs.cn.china.cn/, A0, ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,, false, 4, 7)????????????? 17 ,???:???,,??:?????????????138?,??:7975209__??:15028078833__??:15176090928,,,,,,,,????:???????????????????????(11)???,,,,
在/var/run/spark/work/目录中查看对应app-20150605171809-0003中的stdout文件
stderr: ASCII C++ program textstdout: UTF-8 Unicode text, with very long lines
stdout是ASCII编码的,对中文肯定显示不了
在使用service启动Java程序时,机器上hadoop中stdout输出的日志也是是中文乱码
修改 /sbin/service ,在env -i 后面加上 LANG="$LANG"
重启spark的各节点
service spark-master restartservice spark-worker restart
最后日志中文显示正常
中文
乱码
日志
文件
版本
输出
内容
函数
数据
机器
目录
程序
编码
节点
C++
UTF-8
处理
肯定
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
在数据库的封锁技术
服务器ws8888
怎样在数据库中找到某个表
钢铁行业网络安全工作方案价格
苏州道软件开发公司
元宇宙的网络安全风险
菏泽广鑫网络技术有限公司
服务器log干啥的
融媒体网络安全宣传周
服务器被攻击预警设置
数据库娱乐二维码
1.12版数据库
软件开发的工作分配
城阳区app软件开发公司
端游方舟服务器密码是多少
网络技术及应用包含哪些
软件开发和ui设计哪个好用
数据库出错3022
数据库设计应注意哪些方面
数据库怎么查默认值
可信计算构筑网络安全
sql数据库脚本怎么运行
直播软件开发费用
我的世界去别人服务器安全吗
vs数据库建立连接失败
怎么看orcal数据库位数
招商银行成都软件开发部地址
cs画图软件开发
买服务器怎么发朋友圈
做一个数据库