sqoop从hdfs导出到mysql
create database logs;
use logs
create table weblogs_from_hdfs(
md5 varchar(32),
url varchar(64),
request_date date,
request_time time,
ip varchar(15)
);
sqoop export -m 1 --connect jdbc:mysql://hadoop:3306/logs --username root --password root --table weblogs_from_hdfs --export-dir /data/weblogs/import --input-fields-terminated-by ‘\t‘
对于通过sqoop导入的数据为NULL的在导出到数据库中时依然保持为NULL.即使在文件中保存为字符串为‘null‘。
sqoop默认为insert 插入新的语句
--update-key ‘md5‘ 则将创建更新语句,update ....where md5 = ‘.......‘
如果--update-key ‘md5‘ 设置的值没有找到,可以设置--update-mode allowinsert 允许新增这行数据
每个mapper默认默认插入1000条记录,然后提交事务,若mapper失败,可能出现插入冲突或者插入重复数据,可以通过一个临时表--staging-table temptableName,等一个事务完成再将数据复制到--table指定的表中,临时表结构必须与最终表一致
create table temp_table as select * from real_table where 1=0;
临时表必须为空表,否侧必须配置参数--clear-staging-table 在插入数据前清空临时表
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。