千家信息网

spark on hive如何配置

发表于:2024-11-11 作者:千家信息网编辑
千家信息网最后更新 2024年11月11日,小编给大家分享一下spark on hive如何配置,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!1. 添加依赖
千家信息网最后更新 2024年11月11日spark on hive如何配置

小编给大家分享一下spark on hive如何配置,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

1. 添加依赖

            2.4.0        2.11                                    org.apache.spark            spark-core_${scala.version}            ${spark.version}                            org.apache.spark            spark-sql_${scala.version}            ${spark.version}                            org.apache.spark            spark-hive_${scala.version}            ${spark.version}                            net.jpountz.lz4            lz4            1.3.0                                                                net.alchim31.maven                scala-maven-plugin                3.2.0                                                                                                                compile                                                                                                    org.apache.maven.plugins                maven-assembly-plugin                3.0.0                                                            jar-with-dependencies                                                                                                make-assembly                        package                                                    single                                                                                    

2. 将hive-site.xml拷贝到项目资源路径下

3. 创建SparkSession对象,直接读取hive表中的数据

    val session: SparkSession = SparkSession.builder.appName("etl")         .master("local[*]")         .enableHiveSupport.getOrCreateval frame: DataFrame = session.sql("select * from warningplatform.ini_current_frequency")    frame.show()

以上是"spark on hive如何配置"这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注行业资讯频道!

0