千家信息网

hive执行spark任务的示例分析

发表于:2025-01-25 作者:千家信息网编辑
千家信息网最后更新 2025年01月25日,这篇文章主要为大家展示了"hive执行spark任务的示例分析",内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下"hive执行spark任务的示例分析"这篇文章
千家信息网最后更新 2025年01月25日hive执行spark任务的示例分析

这篇文章主要为大家展示了"hive执行spark任务的示例分析",内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下"hive执行spark任务的示例分析"这篇文章吧。

public static void main(String[] args) throws Exception{
if (args.length < 1) {
System.err.println(" Usage: JavaWordCount ");
System.out.println(" examle: ./bin/spark-submit --name \"WorktrendJob\" "+ "--master spark://192.168.0.61:7077 --executor-memory 1G "
+ "--class et.theme.vis.job.WorktrendJob spark-1.jar "+ "/data/china/china.txt file:///data/china ");
System.exit(1);
}
SimpleDateFormat sdf = new SimpleDateFormat( "yyyy-MM-dd" );
DATE_MATH = sdf.format(new Date());
System.out.println("--------****WorktrendJob*****----------------");
System.out.println("-----------------------------------------------");
System.out.println("-----------spark开始计算------------------------");
//job name
SparkConf sparkConf = new SparkConf().setAppName("MyCustomerJob");
//spark连接
JavaSparkContext ctx = new JavaSparkContext(sparkConf);
//创建hive连接
HiveContext hiveContext = new HiveContext(ctx);
//mysql 配置
Properties connectionProperties = new Properties();
connectionProperties.setProperty("user", MYSQL_USER);
connectionProperties.setProperty("", MYSQL_PASSWORD);
//查询所有
DataFrame queryall = queryAll(hiveContext,null);
//注册临时表
queryall.registerTempTable("first");
//查询临时表计算1
String sql = "";
//查询 计算2
String sql1 = "";
//将计算结果转化DataFrame
DataFrame sql_a = hiveContext.sql(sql);
DataFrame sql_b = hiveContext.sql(sql1);
// 合并2个DataFrame 相当与 left join
DataFrame join = sql_a.join(sql_b,sql_b.col(DATE_END).equalTo(sql_a.col(DATE_END)),"left_outer");
//在mysql建表
sql_a.write().mode(SaveMode.Append).jdbc(MYSQL_JDBC_URL, "test", connectionProperties);
//关闭
ctx.stop();
}

public static DataFrame queryAll(HiveContext hiveContext, String arg){
String sql = "";
DataFrame queryAll = hiveContext.sql(sql);
//查询结果转化成RDD抽象数据集
JavaRDD name = queryAll.javaRDD().map(new Function(){

@Override
public WorktrendInfo call(Row v1) throws Exception {
//将RDD抽象数据集放入vo.class
CustomerInfo customerInfo = new CustomerInfo();
customerInfo.setCity(v1.getString(0));
return null;//将customerInfo返回
}

});
//将结果vo转化成DataFrame ~return
DataFrame df = hiveContext.createDataFrame(name, WorktrendInfo.class);
return df;

}

以上是"hive执行spark任务的示例分析"这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注行业资讯频道!

查询 任务 示例 分析 内容 篇文章 结果 数据 学习 帮助 易懂 更多 条理 知识 编带 行业 资讯 资讯频道 频道 研究 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 软件开发车型匹配 冰虬炜稷互联网科技有限公司 开展网络安全执法检查工作 周伟 联通网络技术研究院 服务器地址怎么与主机相通 北京软件开发公司招聘信息 sql 数据库生成脚本 专科生能做软件开发吗 微信聊天数据服务器保存多久 泰科网络技术廊坊有限公司 滴滴网络安全防御 数据库怎么删除工号记录 浙江软件开发加盟商哪个好 商用网络技术问题由客户支持 美国网络安全代表人物 电信机房有多少台服务器 域名可以做博客服务器吗 .网络安全的基本属性是( 承接进博会网络安全 网络技术应用重点汇总 服务器磁盘控制电池 网络安全态势感知白皮书 专科生能做软件开发吗 网络技术计算机等级 数据行列转换数据库 网络安全基础题单选 it软件开发与高校合作 湖南微云控软件开发有限公司 网络安全态势感知平台有哪些设备 数据库中的json类型
0