Sqoop2从Mysql导入Hdfs的过程
发表于:2024-11-19 作者:千家信息网编辑
千家信息网最后更新 2024年11月19日,这篇文章主要讲解了"Sqoop2从Mysql导入Hdfs的过程",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Sqoop2从Mysql导入Hdfs的过程
千家信息网最后更新 2024年11月19日Sqoop2从Mysql导入Hdfs的过程
这篇文章主要讲解了"Sqoop2从Mysql导入Hdfs的过程",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Sqoop2从Mysql导入Hdfs的过程"吧!
一、环境搭建
1.Hadoop
http://my.oschina.net/u/204498/blog/519789
2.Sqoop2.x
http://my.oschina.net/u/204498/blog/518941
3. mysql
二、从mysql导入hdfs
1.创建mysql数据库、表、以及测试数据
xxxxxxxx$ mysql -uroot -pEnter password: mysql> show databases;+--------------------+| Database |+--------------------+| information_schema || mysql || performance_schema || test |+--------------------+4 rows in set (0.00 sec)test => 是新建的数据库mysql> use test;mysql> show tables;+----------------------+| Tables_in_test |+----------------------+ || test |+----------------------+1 rows in set (0.00 sec)test => 是新增的表mysql> desc test;+-------+-------------+------+-----+---------+----------------+| Field | Type | Null | Key | Default | Extra |+-------+-------------+------+-----+---------+----------------+| id | int(11) | NO | PRI | NULL | auto_increment || name | varchar(45) | YES | | NULL | || age | int(11) | YES | | NULL | |+-------+-------------+------+-----+---------+----------------+3 rows in set (0.00 sec)mysql> select * from test;+----+------+------+| id | name | age |+----+------+------+| 7 | a | 1 || 8 | b | 2 || 9 | c | 3 |+----+------+------+3 rows in set (0.00 sec)
2. 为各个用户授权
注意:sqoop提交job后,各个节点在map阶段会访问数据库,所以需事先授权
mysql> grant [all | select | ...] on {db}.{table} to {user}@{host} identified by {passwd};mysql> flush privileges;#我给特定的hostname授权 username:root passwd:root 访问db:test 中任意table,权限是allmysql> grant all on test.* to 'root'@{host} identified by 'root';
3.启动sqoop2-server
[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ pwd/home/hadoop/sqoop-1.99.6-bin-hadoop200[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ ./bin/sqoop2-server start......webui可以访问校验,也可以查看log
4.启动sqoop2-shell
[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ pwd/home/hadoop/sqoop-1.99.6-bin-hadoop200[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ ./bin/sqoop2-shell ......sqoop:000> show version......sqoop:000> show connector+----+------------------------+---------+------------------------------------------------------+----------------------+| Id | Name | Version | Class | Supported Directions |+----+------------------------+---------+------------------------------------------------------+----------------------+| 1 | generic-jdbc-connector | 1.99.6 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO || 2 | kite-connector | 1.99.6 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO || 3 | hdfs-connector | 1.99.6 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO || 4 | kafka-connector | 1.99.6 | org.apache.sqoop.connector.kafka.KafkaConnector | TO |+----+------------------------+---------+------------------------------------------------------+----------------------+根据你的connector创建connectorsqoop:000> create link -c 1 => 先创建jdbc会填写name、jdbc-driver、url、username、passwd等等sqoop:000> create link -c 3 => 创建hdfs会填写name、hdfs url、等等sqoop:000> show link+----+-------------+--------------+------------------------+---------+| Id | Name | Connector Id | Connector Name | Enabled |+----+-------------+--------------+------------------------+---------+| 3 | 10-21_jdbc1 | 1 | generic-jdbc-connector | true || 4 | 10-21_hdfs1 | 3 | hdfs-connector | true |+----+-------------+--------------+------------------------+---------+创建job -f=> from -t to 即从哪些导入到哪里sqoop:000> create job -f 3 -t 4会填写,相应的table信息。还有hdfs信息sqoop:000> show job +----+---------------+----------------+--------------+---------+| Id | Name | From Connector | To Connector | Enabled |+----+---------------+----------------+--------------+---------+| 1 | 10-20_sqoopy2 | 1 | 3 | true |+----+---------------+----------------+--------------+---------+#启动jobsqoop:000> start job -j 2.........可以再webui上访问到,查看进度,也可以使用sqoop:000> status job -j 2
sqoop的guide
http://sqoop.apache.org/
5.troubleshooting
多看日志,慢慢的排查
感谢各位的阅读,以上就是"Sqoop2从Mysql导入Hdfs的过程"的内容了,经过本文的学习后,相信大家对Sqoop2从Mysql导入Hdfs的过程这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是,小编将为大家推送更多相关知识点的文章,欢迎关注!
过程
数据
数据库
学习
信息
内容
就是
思路
情况
文章
日志
更多
权限
环境
用户
知识
知识点
篇文章
节点
跟着
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
七日杀mod服务器
焦点科技软件开发怎么样
比安交易所服务器
青岛软件开发哪家靠谱
口袋铃声软件开发
组织家庭无线网络技术
网络安全法律体系组成
唐山网络安全支队长
河南智游网络技术公司 交通
达梦数据库广州有限公司
mysql 服务器时间
全部密码数据库
下列创建数据库表的说法正确的是
锦江区瑞风软件开发工作室
移动充话费服务器异常怎么回事
数据库架构师大会
软件开发类的职位发布文本
中山搬家服务软件开发哪个好
网络安全试卷8答案
单点登录用户数据库设计
七日杀mod服务器
sow软件开发是什么意思
众族网络技术有限公司地址
软件开发平台建设心得
亲爱的热爱的网络安全口型
软件开发的进度计划
2021年天龙八部端游服务器
可以试用的香港服务器
分盘软件开发
数据库事务吃内存大么