千家信息网

spark1.4.1如何配置

发表于:2025-01-24 作者:千家信息网编辑
千家信息网最后更新 2025年01月24日,这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1.创建脚本cd /opt/spark-1.4.1-bin-h
千家信息网最后更新 2025年01月24日spark1.4.1如何配置

这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

1.创建脚本

cd /opt/spark-1.4.1-bin-hadoop2.6/confcp spark-env.sh.template spark-env.shcp slaves.template slaves

2.程序加入环境变量

vi spark-env.shexport JAVA_HOME=/opt/jdk1.7.0_75export SCALA_HOME=/opt/scala-2.11.6export HADOOP_CONF_DIR=/opt/hadoop-2.6.0/etc/hadoop# spark的work目录临时文件自动清理,清理频率每半小时export SPARK_WORKER_DIR="/home/hadoop/spark/worker/"export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800"vi slaves填入各节点hostname

3.系统加入环境变量

vi /etc/profileexport SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6export PATH=$SPARK_HOME/bin:$PATH

4.启动

cd ../sbin/./start-all.sh

5.查看进程是否启动

jps4211 Master4367 Worker

6.进入spark的web页面 http://spore:8080/


7.使用spark-shell

cd ../bin/./spark-shell

8.sparkUI http://spore:4040

源码阅读,查看spark支持哪些sql关键字:

spark\sql\catalyst\src\main\scala\org\apache\spark\sql\catalyst\SQLParser.scala

spark-sql自定义函数例子

http://colobu.com/2014/12/11/spark-sql-quick-start/

如果要使用bin/spark-sql这个命令

必须启动hive metastore且conf/hive-site.xml内必须要有hive.metastore.uris的配置,例如

          hive.metastore.uris      thrift://byd0087:9083    

启动bin/spark-sql,即可使用hive的HQL语句,速度可比hive快多了

关于"spark1.4.1如何配置"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

0