如何使用java写spark
发表于:2025-01-19 作者:千家信息网编辑
千家信息网最后更新 2025年01月19日,这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。package hgs.spark;import java.util.A
千家信息网最后更新 2025年01月19日如何使用java写spark
这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
package hgs.spark;import java.util.ArrayList;import java.util.Iterator;import java.util.List;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRDD;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.FlatMapFunction;import org.apache.spark.api.java.function.Function2;import org.apache.spark.api.java.function.PairFlatMapFunction;import scala.Tuple2;public class JavaRDDWC { public static void main(String[] args) { //System.setProperty("HADOOP_USER_NAME","administrator"); //需要hadoop windows的winutils.exe System.setProperty("hadoop.home.dir", "D:\\hadoop-2.7.1"); SparkConf conf = new SparkConf().setAppName("javawc").setMaster("local[2]"); @SuppressWarnings("resource") JavaSparkContext context = new JavaSparkContext(conf); JavaRDDrdd = context.textFile("D:\\test.txt"); //split成数组 JavaRDD rdd1 = rdd.map(s -> s.split(",")); //只有pairrdd才可以reducebykey JavaPairRDD rdd2 = rdd1.flatMapToPair(new flatMapFunc()); JavaPairRDD rdd3 = rdd2.reduceByKey(new reducefunc()); rdd3.saveAsTextFile("D:\\fff"); context.stop(); }}class reducefunc implements Function2 { /** * */ private static final long serialVersionUID = 1L; @Override public Integer call(Integer v1, Integer v2) throws Exception { return v1+v2; }}class flatmf implements FlatMapFunction { /** * */ private static final long serialVersionUID = 1L; @Override public Iterator call(String[] t) throws Exception { List list = new ArrayList<>(); for(String str : t) { list.add(str); } return list.iterator(); } }class flatMapFunc implements PairFlatMapFunction { /** * */ private static final long serialVersionUID = 1L; @Override public Iterator > call(String[] t) throws Exception { List > list = new ArrayList<>(); for(String str : t) { list.add(new Tuple2 (str, 1)); } return list.iterator(); } }
感谢各位的阅读!关于"如何使用java写spark"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
内容
更多
篇文章
不错
实用
只有
数组
文章
看吧
知识
参考
帮助
有关
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
java比对数据库数据变化
obs中的rtmp服务器和密钥
标题网络安全
常州网络营销软件开发价钱
网络安全阀 指导意义
SQL数据库查询数据表语句
凤城世超网络技术在哪
ad hoc网络技术概述
即将上市的网络技术
北京达梦数据库技术有限公司
部署邮件服务器
河南精算互联网科技
维护网络安全团日活动
csgo怎么出现韩国服务器
网络安全职位累不累
.net通讯软件开发教程
网络安全岗位说明书
网络安全入侵活动的含义
数据库不采集数据
汕头市奇点网络技术
网络安全小组组长是谁视频
网络安全网络优化
网络安全调试方案
数据库资源账号密码是什么
java软件开发培训班
手机查车服务器怎么选
重庆服务器代理商
如何启用dhcp服务器
服务器装系统前需要格式化吗
国税优化管理服务器