如何使用spark Context转成RDD
发表于:2025-02-03 作者:千家信息网编辑
千家信息网最后更新 2025年02月03日,这篇文章主要介绍"如何使用spark Context转成RDD",在日常操作中,相信很多人在如何使用spark Context转成RDD问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希
千家信息网最后更新 2025年02月03日如何使用spark Context转成RDD
这篇文章主要介绍"如何使用spark Context转成RDD",在日常操作中,相信很多人在如何使用spark Context转成RDD问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"如何使用spark Context转成RDD"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
一. 背景
在spark rdd转换算子中join和cogroup是有些需要区分的算子转换,这里使用示例来说明一下。
二. 示例
1.构建List示例数据
List> studentsList = Arrays.asList( new Tuple2 (1,"xufengnian"), new Tuple2 (2,"xuyao"), new Tuple2 (2,"wangchudong"), new Tuple2 (3,"laohuang") );List > scoresList = Arrays.asList( new Tuple2 (1,100), new Tuple2 (2,90), new Tuple2 (3,80), new Tuple2 (1,101), new Tuple2 (2,91), new Tuple2 (3,81), new Tuple2 (3,71) );
2.使用sparkContext转成RDD
JavaPairRDDstudentsRDD = sc.parallelizePairs(studentsList);JavaPairRDD scoresRDD = sc.parallelizePairs(scoresList);//studentsRDD 为:List >//(1,xufengnian)(2,xuyao)(2,wangchudong)(3,laohuang),下面进行打印查看studentsRDD.foreach(new VoidFunction >(){ public void call(Tuple2 tuple){ System.out.println(tuple._1);//1 2 3 System.out.println(tuple._2);// xufengnian xuyao laohuang }});
3.进行join
/*前面数据(1,xufengnian)(2,xuyao)(2,"wangchudong")(3,laohuang)(1,100)(2,90)(3,80)(1,101)(2,91)(3,81)(3,71)join之后:(1,(xufengnian,100))(1,(xufengnian,101))(3,(laohuang,80))(3,(laohuang,81))(3,(laohuang,71))(2,(xuyao,90))(2,(xuyao,91))(2,(wangchudong,90))(2,(wangchudong,91))*/JavaPairRDD> studentScores = studentsRDD.join(scoresRDD);//join为key相同的join,key不变,value变成(string,integer)studentScores.foreach(new VoidFunction >>() { private static final long serialVersionUID = 1L; @Override public void call(Tuple2 > student) throws Exception { System.out.println("student id: " + student._1);//1 1 3 System.out.println("student name: " + student._2._1);//xufengnian xufengnian laohuang System.out.println("student score: " + student._2._2);//100 101 80 System.out.println("==================================="); }});
4.进行cogroup
/*前面的数据(1,xufengnian)(2,xuyao)(2,"wangchudong")(3,laohuang)(1,100)(2,90)(3,80)(1,101)(2,91)(3,81)(3,71)cogroup之后:(1,([xufengnian],[100,101])) (3,([laohuang],[80,81,71])) (2,([xuyao,wangchudong],[90,91]))*/JavaPairRDD,Iterable >> studentScores2 = studentsRDD.cogroup(scoresRDD);studentScores2.foreach(new VoidFunction , Iterable >>>() { @Override public void call(Tuple2 , Iterable >> stu) throws Exception { System.out.println("stu id:"+stu._1);//1 3 System.out.println("stu name:"+stu._2._1);//[xufengnian] [laohuang] System.out.println("stu score:"+stu._2._2);//[100,101] [80,81,71] Iterable integers = stu._2._2; for (Iterator iter = integers.iterator(); iter.hasNext();) { Integer str = (Integer)iter.next(); System.out.println(str);//100 101 80 81 71 } System.out.println("==================================="); }});
到此,关于"如何使用spark Context转成RDD"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!
学习
数据
示例
更多
算子
帮助
实用
相同
接下来
文章
方法
理论
知识
篇文章
网站
背景
资料
跟着
问题
好用
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
软件开发者应该怎么学习
网络安全意识不强
网络安全漏洞与防御措施
数据库预约日期为星期一
机关单位网络安全重要性
it审计与网络安全硕士
软件开发语言相关图片
介绍一下数据库营销
php编程软件开发
南京腾网达网络技术有限公司
软件开发培训后就业有问题吗
中国电子学会网络安全工程师
数模与软件开发有联系吗
linux下重启数据库
apex哪个服务器容易上钻石
广州数据网络技术开发推荐厂家
ipv6能做服务器吗
深圳市网络安全培训学校
diary表安全数据库设计
教育机构直播软件开发
数据库同步设计文档
苹果序列号不在数据库
网络安全的工资高吗
平阳苍南软件开发招聘
网络安全心得200字左右
nexus 代理服务器
scada系统 数据库
P盘能用4颗cpu服务器能跑吗
网络安全红蓝对抗赛
离线生存服务器ip