Sqoop2从Mysql导入Hdfs的过程
发表于:2025-02-16 作者:千家信息网编辑
千家信息网最后更新 2025年02月16日,这篇文章主要讲解了"Sqoop2从Mysql导入Hdfs的过程",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Sqoop2从Mysql导入Hdfs的过程
千家信息网最后更新 2025年02月16日Sqoop2从Mysql导入Hdfs的过程
这篇文章主要讲解了"Sqoop2从Mysql导入Hdfs的过程",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"Sqoop2从Mysql导入Hdfs的过程"吧!
一、环境搭建
1.Hadoop
http://my.oschina.net/u/204498/blog/519789
2.Sqoop2.x
http://my.oschina.net/u/204498/blog/518941
3. mysql
二、从mysql导入hdfs
1.创建mysql数据库、表、以及测试数据
xxxxxxxx$ mysql -uroot -pEnter password: mysql> show databases;+--------------------+| Database |+--------------------+| information_schema || mysql || performance_schema || test |+--------------------+4 rows in set (0.00 sec)test => 是新建的数据库mysql> use test;mysql> show tables;+----------------------+| Tables_in_test |+----------------------+ || test |+----------------------+1 rows in set (0.00 sec)test => 是新增的表mysql> desc test;+-------+-------------+------+-----+---------+----------------+| Field | Type | Null | Key | Default | Extra |+-------+-------------+------+-----+---------+----------------+| id | int(11) | NO | PRI | NULL | auto_increment || name | varchar(45) | YES | | NULL | || age | int(11) | YES | | NULL | |+-------+-------------+------+-----+---------+----------------+3 rows in set (0.00 sec)mysql> select * from test;+----+------+------+| id | name | age |+----+------+------+| 7 | a | 1 || 8 | b | 2 || 9 | c | 3 |+----+------+------+3 rows in set (0.00 sec)
2. 为各个用户授权
注意:sqoop提交job后,各个节点在map阶段会访问数据库,所以需事先授权
mysql> grant [all | select | ...] on {db}.{table} to {user}@{host} identified by {passwd};mysql> flush privileges;#我给特定的hostname授权 username:root passwd:root 访问db:test 中任意table,权限是allmysql> grant all on test.* to 'root'@{host} identified by 'root';
3.启动sqoop2-server
[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ pwd/home/hadoop/sqoop-1.99.6-bin-hadoop200[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ ./bin/sqoop2-server start......webui可以访问校验,也可以查看log
4.启动sqoop2-shell
[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ pwd/home/hadoop/sqoop-1.99.6-bin-hadoop200[hadoop@hftclclw0001 sqoop-1.99.6-bin-hadoop200]$ ./bin/sqoop2-shell ......sqoop:000> show version......sqoop:000> show connector+----+------------------------+---------+------------------------------------------------------+----------------------+| Id | Name | Version | Class | Supported Directions |+----+------------------------+---------+------------------------------------------------------+----------------------+| 1 | generic-jdbc-connector | 1.99.6 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO || 2 | kite-connector | 1.99.6 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO || 3 | hdfs-connector | 1.99.6 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO || 4 | kafka-connector | 1.99.6 | org.apache.sqoop.connector.kafka.KafkaConnector | TO |+----+------------------------+---------+------------------------------------------------------+----------------------+根据你的connector创建connectorsqoop:000> create link -c 1 => 先创建jdbc会填写name、jdbc-driver、url、username、passwd等等sqoop:000> create link -c 3 => 创建hdfs会填写name、hdfs url、等等sqoop:000> show link+----+-------------+--------------+------------------------+---------+| Id | Name | Connector Id | Connector Name | Enabled |+----+-------------+--------------+------------------------+---------+| 3 | 10-21_jdbc1 | 1 | generic-jdbc-connector | true || 4 | 10-21_hdfs1 | 3 | hdfs-connector | true |+----+-------------+--------------+------------------------+---------+创建job -f=> from -t to 即从哪些导入到哪里sqoop:000> create job -f 3 -t 4会填写,相应的table信息。还有hdfs信息sqoop:000> show job +----+---------------+----------------+--------------+---------+| Id | Name | From Connector | To Connector | Enabled |+----+---------------+----------------+--------------+---------+| 1 | 10-20_sqoopy2 | 1 | 3 | true |+----+---------------+----------------+--------------+---------+#启动jobsqoop:000> start job -j 2.........可以再webui上访问到,查看进度,也可以使用sqoop:000> status job -j 2
sqoop的guide
http://sqoop.apache.org/
5.troubleshooting
多看日志,慢慢的排查
感谢各位的阅读,以上就是"Sqoop2从Mysql导入Hdfs的过程"的内容了,经过本文的学习后,相信大家对Sqoop2从Mysql导入Hdfs的过程这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是,小编将为大家推送更多相关知识点的文章,欢迎关注!
过程
数据
数据库
学习
信息
内容
就是
思路
情况
文章
日志
更多
权限
环境
用户
知识
知识点
篇文章
节点
跟着
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
软件开发中心宣讲会
如何给数据库表插入一列
扬州公司网络安全
专科生适合软件开发吗
软件开发管培生靠谱吗
企业密信登陆服务器a1111
leanengine服务器
腾讯sql数据库审计
河北北斗时钟服务器云服务器
餐饮配送软件开发
数据库漏洞扫描技术
服务器 环境变量
局域网做邮件服务器
龙之谷服务器端
数据库表格打开乱码
合约跟单社区软件开发
服务器网络攻击后怎么处理
卡管家软件开发
北京学生网络技术咨询常见问题
电脑服务器副本
第二届京津冀研究生网络安全
西安软件开发人员的工资
洛阳个人服务器找哪家
服务器带内和带外配置
鬼魂怎么换服务器
长宁区海航软件开发诚信经营
我的世界对打服务器手机版推荐
赛尔网络技术支持工程师笔试
软件开发的人力资源状况
黑色星期四 网络安全