怎样使用sbt构建spark的项目
发表于:2025-01-25 作者:千家信息网编辑
千家信息网最后更新 2025年01月25日,本篇文章为大家展示了怎样使用sbt构建spark的项目,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。用Intellij 构建sbt项目 scala 使用2.1
千家信息网最后更新 2025年01月25日怎样使用sbt构建spark的项目
本篇文章为大家展示了怎样使用sbt构建spark的项目,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
用Intellij 构建sbt项目 scala 使用2.10.4
name := "gstorm"version := "1.0"version := "1.0"//Older Scala VersionscalaVersion := "2.10.4"val overrideScalaVersion = "2.11.8"val sparkVersion = "2.0.0"val sparkXMLVersion = "0.3.3"val sparkCsvVersion = "1.4.0"val sparkElasticVersion = "2.3.4"val sscKafkaVersion = "2.0.1"val sparkMongoVersion = "1.0.0"val sparkCassandraVersion = "1.6.0"//Override Scala Version to the above 2.11.8 versionivyScala := ivyScala.value map { _.copy(overrideScalaVersion = true)}resolvers ++= Seq( "All Spark Repository -> bintray-spark-packages" at "https://dl.bintray.com/spark-packages/maven/")libraryDependencies ++= Seq( "org.apache.spark" %% "spark-core" % sparkVersion exclude("jline", "2.12"), "org.apache.spark" %% "spark-sql" % sparkVersion excludeAll(ExclusionRule(organization = "jline"), ExclusionRule("name", "2.12")), "org.apache.spark" %% "spark-hive" % sparkVersion, "org.apache.spark" %% "spark-yarn" % sparkVersion, "com.databricks" %% "spark-xml" % sparkXMLVersion, "com.databricks" %% "spark-csv" % sparkCsvVersion, "org.apache.spark" %% "spark-graphx" % sparkVersion, "org.apache.spark" %% "spark-catalyst" % sparkVersion, "org.apache.spark" %% "spark-streaming" % sparkVersion, // "com.101tec" % "zkclient" % "0.9", "org.elasticsearch" %% "elasticsearch-spark" % sparkElasticVersion, // "org.apache.spark" %% "spark-streaming-kafka-0-10_2.11" % sscKafkaVersion, "org.mongodb.spark" % "mongo-spark-connector_2.11" % sparkMongoVersion, "com.stratio.datasource" % "spark-mongodb_2.10" % "0.11.1", "dibbhatt" % "kafka-spark-consumer" % "1.0.8", "net.liftweb" %% "lift-webkit" % "2.6.2")
WordCount.scala
import org.apache.spark.sql.SparkSessionobject WordCount { def main(args: Array[String]): Unit = { val spark = SparkSession .builder() .appName("Spark SQL Example") .master("local[2]") .config("spark.sql.codegen.WordCount", "true") .getOrCreate() val sc = spark.sparkContext val textFile = sc.textFile("hdfs://hadoop:9000/words.txt") val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b) wordCounts.collect.foreach(println) }}
上述内容就是怎样使用sbt构建spark的项目,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注行业资讯频道。
项目
内容
技能
知识
简明
简明扼要
就是
文章
更多
篇文章
行业
资讯
资讯频道
频道
一亮
储备
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
网络安全监管措施滞后
网络安全一张网
濮阳有软件开发的公司电话
网课数据库课程设计需求分析
重庆南川果蔬软件开发
排功课表用什么软件开发
资深软件开发工程师工资
数据库中的事务的作用
网络安全产品部署方案
什么事云服务器
jq安全连接数据库
服务器1G能放多少产品
服务器安全保障措施
软件开发工作能力强
solr数据库配置
网络安全追求平衡
http qq代理服务器
张家港运营网络技术费用是多少
河北魏东软件开发
网络安全青年力量
崇明区信息网络技术创新服务
软件开发的龙头股
主流关系型数据库管理
武大网络安全学院副书记瞿成雄
软件开发专业就业前景
租数据库多少钱
c 如何用控件连接数据库
数据库安全性数据加密
保定网络技术是什么
数据库产品条码作为主键