震惊!不需hadoop环境运行scala和pyspark程序
Databricks官方是这样描述Databricks优势的:
像Databricks这样的云平台提供了一套集成的、主机托管的解决方案,消除了企业采用Spark和确保大数据项目成功所面临的这三大障碍。我们为你提供了全面管理和调优的Spark集群,开发Spark的一群专家在大力支持。我们的平台为你提供了一种互动式工作区域,以便探查、可视化、合作和发布。如果你已准备好进入生产环境,只要点击一下鼠标即可启动任务。我们会自动搭建基础设施。
另外,我们还提供了一组丰富的API,以便通过编程访问该平台,这还让用户能够无缝整合第三方应用程序。
咱们平民玩家想练习scala,pyspark,苦于电脑配置不行,没安装hadoop环境,公司没环境用,等痛点。
没关系,可以免费申请Databricks 空间,并且运行scala代码是不需要*大大×××*的哈。
只是注册账号的时候需要一个gmail邮箱就ok了。
注册网址如下
https://community.cloud.databricks.com/login.html
选择社区版。
进入后,姓名,公司名 abc随便写写。
注意:这里有个注册验证码可能需要*大大×××*的哈~
这个你要是找笔者要,我只能这样回你了 --- :
账号搞定后,开始创建scala或者python脚本(pyspark):
Create Notebook:
可以创建scala,python,sql,R 四种notebook 用来运行spark程序。
如图,很贴心的给了免费集群(6G内存,spark2.4,scala2.11)这样我们可以方便的在云端体验
spark了。对使用笔记本电脑 和电脑配置低的用户是比较推崇的。
而且在里面创建的notebook 可以导出&&导入, 小伙伴们 遇到语法问题(各种疑难杂症),导出notebook,
在微信群请教 笔者 samir 和群主大大都可以哈!
下面测试2个简单的scala 语句:
1. 常用if-else 控制语句
2. scala调用linux 命令wget下载文件,ls,pwd等命令。
1
打完收工,这次的分享就到这里了。
附上官方操作手册:
https://docs.databricks.com/getting-started/index.html
再贴上咱们的 scala& spark 微信群二维码 :
欢迎交流~