千家信息网

spark jobserver源码的示例分析

发表于:2025-02-06 作者:千家信息网编辑
千家信息网最后更新 2025年02月06日,小编给大家分享一下spark jobserver源码的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!spark j
千家信息网最后更新 2025年02月06日spark jobserver源码的示例分析

小编给大家分享一下spark jobserver源码的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

spark jobserver的特征:

1."Spark as Service":针对job和contexts的各个方面提供了REST风格的api接口进行管理2. 支持SparkSQL、Hive、StreamingContext/jobs以及定制job contexts!3. 通过集成 Apache Shiro 来支持 LDAP 权限验证4. 为了隔离每个sparkcontext单独一个jvm5. 通过长期运行的job contexts支持亚秒级别低延迟的任务6. 可以通过结束 context 来停止运行的作业(job)7. 分割 jar 上传步骤以提高 job 的启动速度8. 异步和同步的 job API,其中同步 API 对低延时作业非常有效9. 支持Standalone Spark和Mesos、yarn10. Job和jar信息通过一个可插拔的DAO接口来持久化11. 对RDD或DataFrame对象命名并缓存,通过该名称获取RDD或DataFrame。这样可以提高对象在作业间的共享和重用

建议大家可以从Spark jobserver的bin目录下手,比如server_start.sh脚本,该脚本本身就是一个spark 任务提交脚本比较好的范例。


#!/usr/bin/env bash# Script to start the job server# Extra arguments will be spark-submit options, for example# ./server_start.sh --jars cassandra-spark-connector.jar## Environment vars (note settings.sh overrides):# JOBSERVER_MEMORY - defaults to 1G, the amount of memory (eg 512m, 2G) to give to job server# JOBSERVER_CONFIG - alternate configuration file to use# JOBSERVER_FG - launches job server in foreground; defaults to forking in backgroundset -e
get_abs_script_path() { pushd . >/dev/null cd "$(dirname "$0")" appdir=$(pwd) popd >/dev/null}
get_abs_script_path
set -a. $appdir/setenv.shset +a
GC_OPTS_SERVER="$GC_OPTS_BASE -Xloggc:$appdir/$GC_OUT_FILE_NAME"
MAIN="spark.jobserver.JobServer"
PIDFILE=$appdir/spark-jobserver.pidif [ -f "$PIDFILE" ] && kill -0 $(cat "$PIDFILE"); then echo 'Job server is already running' exit 1fi
cmd='$SPARK_HOME/bin/spark-submit --class $MAIN --driver-memory $JOBSERVER_MEMORY --conf "spark.executor.extraJavaOptions=$LOGGING_OPTS" --driver-java-options "$GC_OPTS_SERVER $JAVA_OPTS_SERVER $LOGGING_OPTS $CONFIG_OVERRIDES" $@ $appdir/spark-job-server.jar $conffile'if [ -z "$JOBSERVER_FG" ]; then eval $cmd > $LOG_DIR/server_start.log 2>&1 < /dev/null & echo $! > $PIDFILEelse eval $cmdfi

可以看到熟悉的spark-submit,入口函数就是spark.jobserver.JobServer的main函数,浪尖就不在这里展开了。

spark jobserver的大致架构如下图所示,大家也可以参照下图所示的思路提示去阅读,球友的话也可以去星球里找寻我周么发出来的提示。

以上是"spark jobserver源码的示例分析"这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注行业资讯频道!

支持 篇文章 脚本 作业 源码 示例 分析 任务 内容 函数 对象 就是 接口 同步 提示 运行 有效 下图 不怎么 信息 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 东莞百信网络技术有限公司 网络安全法的意义邮 网络安全设备管理技术 根据网络安全法的规定什么 盛世赢家服务器连不上 软科学研究网络安全 华为网络安全试题 新乡君桓网络技术有限公司 考试网络安全主体责任 信息技术与网络安全的关系 太原游戏类软件开发公司 仁怀网络安全系统怎么选 南昌软件开发公司一般在哪 云桌面需要本地部署服务器吗 张家界学软件开发好不好 女生计算机网络技术好就业吗 长沙景安网络技术 银行国家网络安全宣传周简报 如何避免网络安全的危害 前程无忧是叫前锦网络技术吗 网络技术与应用课后答案 山西通信软件开发应用 四川天气预报软件开发 数据库大小写错误 数据库数据没有备份 福建好的软件开发诚信合作 internet网络技术操作题 最大的ATAC服务器厂家 工业园区便宜服务器生产商 我的世界动漫类型服务器
0