spark1.4.1如何配置
发表于:2025-01-24 作者:千家信息网编辑
千家信息网最后更新 2025年01月24日,这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1.创建脚本cd /opt/spark-1.4.1-bin-h
千家信息网最后更新 2025年01月24日spark1.4.1如何配置
这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
1.创建脚本
cd /opt/spark-1.4.1-bin-hadoop2.6/confcp spark-env.sh.template spark-env.shcp slaves.template slaves
2.程序加入环境变量
vi spark-env.shexport JAVA_HOME=/opt/jdk1.7.0_75export SCALA_HOME=/opt/scala-2.11.6export HADOOP_CONF_DIR=/opt/hadoop-2.6.0/etc/hadoop# spark的work目录临时文件自动清理,清理频率每半小时export SPARK_WORKER_DIR="/home/hadoop/spark/worker/"export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800"vi slaves填入各节点hostname
3.系统加入环境变量
vi /etc/profileexport SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6export PATH=$SPARK_HOME/bin:$PATH
4.启动
cd ../sbin/./start-all.sh
5.查看进程是否启动
jps4211 Master4367 Worker
6.进入spark的web页面 http://spore:8080/
7.使用spark-shell
cd ../bin/./spark-shell
8.sparkUI http://spore:4040
源码阅读,查看spark支持哪些sql关键字:
spark\sql\catalyst\src\main\scala\org\apache\spark\sql\catalyst\SQLParser.scala
spark-sql自定义函数例子
http://colobu.com/2014/12/11/spark-sql-quick-start/
如果要使用bin/spark-sql这个命令
必须启动hive metastore且conf/hive-site.xml内必须要有hive.metastore.uris的配置,例如
hive.metastore.uris thrift://byd0087:9083
启动bin/spark-sql,即可使用hive的HQL语句,速度可比hive快多了
关于"spark1.4.1如何配置"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
配置
篇文章
变量
更多
环境
不错
实用
例子
关键
关键字
内容
函数
命令
小时
文件
文章
源码
目录
知识
程序
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
电商类软件开发流程
数据库查询查询所有课程的信息
路由器断电显示服务器无响应
软件开发和测试 英文
象山一站式软件开发
小学生网络安全作文700字
网络安全心得感悟
网络安全整改内容
国内哪个数据库比较好
网络安全师面试
软件开发刚毕业什么都不会在哪学
广州彩瞳网络技术
战舰世界亚服服务器怎么设置
软件开发兼职平台app
想学电脑网络技术怎么入手
软件开发咨询老师话术
共享网络安全的华文行楷
怎么建立数据库
高中计算机网络技术基础教材
服务器域名维护
金山区高科技网络技术怎么样
深圳市华盛网络技术有限公司
python怎样做软件开发
sql数据库复制excel
首届网络安全周主题
wtc服务器连接失败的原因
e3做服务器
梦幻西游互通版服务器
中华诗词数据库价格
获取数据库条数的函数