如何使用sbt打包scala写的spark项目
发表于:2025-02-07 作者:千家信息网编辑
千家信息网最后更新 2025年02月07日,这篇文章主要介绍"如何使用sbt打包scala写的spark项目",在日常操作中,相信很多人在如何使用sbt打包scala写的spark项目问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法
千家信息网最后更新 2025年02月07日如何使用sbt打包scala写的spark项目
这篇文章主要介绍"如何使用sbt打包scala写的spark项目",在日常操作中,相信很多人在如何使用sbt打包scala写的spark项目问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"如何使用sbt打包scala写的spark项目"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
项目根目录build.sbt
//项目名称 name := "sparkScala" //项目版本 version := "1.0" //scala版本scalaVersion := "2.11.7" //jdk版本javacOptions ++= Seq("-source", "1.7", "-target", "1.7") //依赖项,%%表示测试时需要,一般%; % "provided"表示此jar不打入最终的jar文件内libraryDependencies += "com.alibaba" % "fastjson" % "1.2.4"libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.1" % "provided"libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.4.1" % "provided" //主函数mainClass in Compile := Some("main.MergePartition") //打包时,排除scala类库assemblyOption in assembly := (assemblyOption in assembly).value.copy(includeScala = false)
项目根目录project/plugins.sbt添加assembly插件
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.13.0")
最终在项目根目录下执行
sbt clean assembly
即可看到香喷喷的jar包文件
解压里面即可看到fastjson被打入jar包内,其它要排除的都已被排除
在META-INF/MANIFEST.MF文件也写入了Main-Class: main.MergePartition 这个主函数执行类
到此,关于"如何使用sbt打包scala写的spark项目"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!
项目
学习
文件
根目录
版本
函数
更多
帮助
实用
接下来
名称
插件
文章
方法
理论
知识
篇文章
网站
资料
跟着
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
网络安全靠人的民句子
如何看账号的服务器
网络安全自我保护小技巧
数据库ott软件
数据库可以先收缩再备份吗
微信网络安全咨询电话
韶关通信软件开发厂家直销
网络安全可以用什么语言来写
洞见数据库
网络安全法解读 新华社
服务器正常安全关机
etl工具需要数据库权限
濮阳市烟草局网络安全
松江区正规数据库销售
数据库项目管理的重要性
云服务器在电脑上就卡
上海智慧门禁软件开发中心
数据库返回的宏代码
服务器上配置网站
26学软件开发
怎么用c 做软件开发
软件开发技术ppt人员介绍
浙江拓道网络技术有限公司
重庆维普数据库中刊
更改数据库表提示保存不了
服务器正常安全关机
高校网络安全课程设计
app软件开发原型图
oracle19c数据库同步
软件开发c面试题