Sqoop1.4.4将MySQL数据库表中数据导入到HBase表中
问题导读:
1、--hbase-table、--hbase-row-key、--column-family及--hbase-create-table参数的作用?
2、Sqoop将关系型数据库表中数据导入HBase中,默认Rowkey是什么?
3、如果关系型数据库表中存在多关键字,该怎么办?
一、简介及部分重要参数介绍
Sqoop除了能够将数据从关系型数据库导入到HDFS和Hive中,还能够导入到HBase表中。
--hbase-table:通过指定--hbase-table参数值,指明将数据导入到HBase表中,而不是HDFS上的一个目录。输入表中的每一行将会被转换成一个HBase Put操作的输出表的一行。
--hbase-row-key:你可以使用--hbase-row-key参数,手动的指定row key。默认的情况下,Sqoop会将split-by 列作为HBase rowkey列。如果没有指定split-by值,它将会试图识别关系表的关键字。
如果源表是组合关键字,--hbase-row-key 参数后面值是用逗号分隔的组合关键字属性的列表,在这样种情况下,通过合并组合关键字属性的值来产生HBase的Row key,每个值之间使用下划线分隔开来。
--column-family:必须指定--column-family参数,每一个输出列都会被放到同一个family列族中。
--hbase-create-table:如果HBase中的目标表和列族不存在,如果你使用该参数,Sqoop在运行任务的时候会根据HBase的默认配置,首先创建目标表和列族。
注意一:当源表中是组合关键字的时候,必须手动指定--hbase-row-key参数,Sqoop才能将数据导入到HBase中,否则不行。
注意二:如果HBase中的目标表和列族不存在,如果没加--hbase-create-table参数,Sqoop job将会报错误退出运行。所以你在将数据从源表导入到HBase之前,需要首先在HBase中创建目标表和其对应的列族。
Sqoop目前会序列化所有的字段值,将值转换为字符串表示,然后向HBase中插入UTF-8编码的字符串值的二进制值。
二、原始数据如下
mysql> select * from user; +----+-----------+--------------+--------------+ | id | name | address | school | +----+-----------+--------------+--------------+ | 1 | 张三丰 | 五台山 | 安徽大学 | | 2 | 黄易某 | 江苏南京 | 南京大学 | | 3 | 李四 | 江苏苏州 | 苏州大学 | | 4 | 王海 | 江苏南京 | | | 5 | 小德子 | | 清华大学 | +----+-----------+--------------+--------------+ 5 rows in set (0.00 sec)上面id是关键字
三、以单关键字作为Rowkey导入
[hadoopUser@secondmgt ~]$ sqoop import --connect jdbc:mysql://secondmgt:3306/test --username hive --password hive --table user --split-by id --hbase-table sqooptest --column-family stuInfo
以--split-by id作为Rowkey导入,不加此参数,默认情况下也是以id作为RowKey导入的。执行报如下错误:
15/01/19 19:17:29 INFO mapreduce.Job: Running job: job_1421373857783_0029 15/01/19 19:17:43 INFO mapreduce.Job: Job job_1421373857783_0029 running in uber mode : false 15/01/19 19:17:43 INFO mapreduce.Job: map 0% reduce 0% 15/01/19 19:17:54 INFO mapreduce.Job: Task Id : attempt_1421373857783_0029_m_000001_0, Status : FAILED Error: java.lang.RuntimeException: Could not access HBase table sqooptest at org.apache.sqoop.hbase.HBasePutProcessor.setConf(HBasePutProcessor.java:122) at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:73) at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:133) at org.apache.sqoop.mapreduce.DelegatingOutputFormat$DelegatingRecordWriter.<init>(DelegatingOutputFormat.java:107) at org.apache.sqoop.mapreduce.DelegatingOutputFormat.getRecordWriter(DelegatingOutputFormat.java:82) at org.apache.hadoop.mapred.MapTask$NewDirectOutputCollector.<init>(MapTask.java:623) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:743) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:339) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:162) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:157)由错误日志可知,是由于无法访问sqooptest表导致,排除连接问题后,查看发现原来是HBase中没有该表。解决办法如下:
1、先在HBase中创建sqooptest表
hbase(main):006:0> create 'sqooptest','stuInfo' 0 row(s) in 1.5930 seconds => Hbase::Table - sqooptest hbase(main):007:0> list TABLE sqooptest yzjt 2 row(s) in 0.0290 seconds再次执行,查看结果
hbase(main):012:0> scan 'sqooptest' ROW COLUMN+CELL 1 column=stuInfo:address, timestamp=1421665851147, value=\xE4\xBA\x94\xE5\x8F\xB0\xE5\xB1\xB1 1 column=stuInfo:name, timestamp=1421665851147, value=\xE5\xBC\xA0\xE4\xB8\x89\xE4\xB8\xB0 1 column=stuInfo:school, timestamp=1421665851147, value=\xE5\xAE\x89\xE5\xBE\xBD\xE5\xA4\xA7\xE5\xAD\xA6 2 column=stuInfo:address, timestamp=1421665846096, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 2 column=stuInfo:name, timestamp=1421665846096, value=\xE9\xBB\x84\xE6\x98\x93\xE6\x9F\x90 2 column=stuInfo:school, timestamp=1421665846096, value=\xE5\x8D\x97\xE4\xBA\xAC\xE5\xA4\xA7\xE5\xAD\xA6 3 column=stuInfo:address, timestamp=1421665850852, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE8\x8B\x8F\xE5\xB7\x9E 3 column=stuInfo:name, timestamp=1421665850852, value=\xE6\x9D\x8E\xE5\x9B\x9B 3 column=stuInfo:school, timestamp=1421665850852, value=\xE8\x8B\x8F\xE5\xB7\x9E\xE5\xA4\xA7\xE5\xAD\xA6 4 column=stuInfo:address, timestamp=1421665858288, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 4 column=stuInfo:name, timestamp=1421665858288, value=\xE7\x8E\x8B\xE6\xB5\xB7 4 column=stuInfo:school, timestamp=1421665858288, value= 5 column=stuInfo:address, timestamp=1421665862608, value= 5 column=stuInfo:name, timestamp=1421665862608, value=\xE5\xB0\x8F\xE5\xBE\xB7\xE5\xAD\x90 5 column=stuInfo:school, timestamp=1421665862608, value=\xE6\xB8\x85\xE5\x8D\x8E\xE5\xA4\xA7\xE5\xAD\xA6 5 row(s) in 0.0650 seconds2、添加--hbase-create-table参数,使Sqoop在导入之前先在HBase中创建对应表及列族。
以sqooptest2表为例演示如下:
[hadoopUser@secondmgt ~]$ sqoop import --connect jdbc:mysql://secondmgt:3306/test --username hive --password hive --table user --split-by id --hbase-table sqooptest2 --column-family stuInfo --hbase-create-table hbase(main):020:0> scan 'sqooptest2' ROW COLUMN+CELL 1 column=stuInfo:address, timestamp=1421667190477, value=\xE4\xBA\x94\xE5\x8F\xB0\xE5\xB1\xB1 1 column=stuInfo:name, timestamp=1421667190477, value=\xE5\xBC\xA0\xE4\xB8\x89\xE4\xB8\xB0 1 column=stuInfo:school, timestamp=1421667190477, value=\xE5\xAE\x89\xE5\xBE\xBD\xE5\xA4\xA7\xE5\xAD\xA6 2 column=stuInfo:address, timestamp=1421667185489, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 2 column=stuInfo:name, timestamp=1421667185489, value=\xE9\xBB\x84\xE6\x98\x93\xE6\x9F\x90 2 column=stuInfo:school, timestamp=1421667185489, value=\xE5\x8D\x97\xE4\xBA\xAC\xE5\xA4\xA7\xE5\xAD\xA6 3 column=stuInfo:address, timestamp=1421667190279, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE8\x8B\x8F\xE5\xB7\x9E 3 column=stuInfo:name, timestamp=1421667190279, value=\xE6\x9D\x8E\xE5\x9B\x9B 3 column=stuInfo:school, timestamp=1421667190279, value=\xE8\x8B\x8F\xE5\xB7\x9E\xE5\xA4\xA7\xE5\xAD\xA6 4 column=stuInfo:address, timestamp=1421667198066, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 4 column=stuInfo:name, timestamp=1421667198066, value=\xE7\x8E\x8B\xE6\xB5\xB7 4 column=stuInfo:school, timestamp=1421667198066, value=null 5 column=stuInfo:address, timestamp=1421667201685, value=null 5 column=stuInfo:name, timestamp=1421667201685, value=\xE5\xB0\x8F\xE5\xBE\xB7\xE5\xAD\x90 5 column=stuInfo:school, timestamp=1421667201685, value=\xE6\xB8\x85\xE5\x8D\x8E\xE5\xA4\xA7\xE5\xAD\xA6 5 row(s) in 0.0360 seconds
三、手动指定Rowkey
禁用、删除掉之前创建的sqooptest表,演示手动指定Rowkey的情形。我们以id+name组合表示RowKey,如下:
[hadoopUser@secondmgt ~]$ sqoop import --connect jdbc:mysql://secondmgt:3306/test --username hive --password hive --table user --split-by id --hbase-table sqooptest --column-family stuInfo --hbase-create-table --hbase-row-key id,name查看结果:
hbase(main):026:0> list TABLE sqooptest yzjt 2 row(s) in 0.0430 seconds => ["sqooptest", "yzjt"] hbase(main):027:0> scan 'sqooptest' ROW COLUMN+CELL 1_\xE5\xBC\xA0\xE4\xB8\x89\xE4\xB8\xB0 column=stuInfo:address, timestamp=1421668051376, value=\xE4\xBA\x94\xE5\x8F\xB0\xE5\xB1\xB1 1_\xE5\xBC\xA0\xE4\xB8\x89\xE4\xB8\xB0 column=stuInfo:school, timestamp=1421668051376, value=\xE5\xAE\x89\xE5\xBE\xBD\xE5\xA4\xA7\xE5\xAD\xA6 2_\xE9\xBB\x84\xE6\x98\x93\xE6\x9F\x90 column=stuInfo:address, timestamp=1421668046873, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 2_\xE9\xBB\x84\xE6\x98\x93\xE6\x9F\x90 column=stuInfo:school, timestamp=1421668046873, value=\xE5\x8D\x97\xE4\xBA\xAC\xE5\xA4\xA7\xE5\xAD\xA6 3_\xE6\x9D\x8E\xE5\x9B\x9B column=stuInfo:address, timestamp=1421668051471, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE8\x8B\x8F\xE5\xB7\x9E 3_\xE6\x9D\x8E\xE5\x9B\x9B column=stuInfo:school, timestamp=1421668051471, value=\xE8\x8B\x8F\xE5\xB7\x9E\xE5\xA4\xA7\xE5\xAD\xA6 4_\xE7\x8E\x8B\xE6\xB5\xB7 column=stuInfo:address, timestamp=1421668058375, value=\xE6\xB1\x9F\xE8\x8B\x8F\xE5\x8D\x97\xE4\xBA\xAC 4_\xE7\x8E\x8B\xE6\xB5\xB7 column=stuInfo:school, timestamp=1421668058375, value=null 5_\xE5\xB0\x8F\xE5\xBE\xB7\xE5\xAD\x90 column=stuInfo:address, timestamp=1421668063445, value=null 5_\xE5\xB0\x8F\xE5\xBE\xB7\xE5\xAD\x90 column=stuInfo:school, timestamp=1421668063445, value=\xE6\xB8\x85\xE5\x8D\x8E\xE5\xA4\xA7\xE5\xAD\xA6由上可知,数据也成功导入到了HBase中,且Rowkey为id号+name列值的二进制值的组合。Rowkey列之间值是以下划线分隔的。
推荐阅读:
上一篇:Sqoop1.4.4将MySQL中数据导入到Hive表中
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。