Flume lzo压缩输出至 hadoop

 

1. Hadoop 支持lzo压缩依赖:  

lzo:Unix/linux系统默认没有lzo的 库,因此需要安装,sudo yum install lzo-devel.x86_64 

       sudo yum install lzo.x86_64          sudo yum install lzop.x86_64

 

2. 准备maven,ant,gcc 等

3. 编译hadoop-lzo

  从https://github.com/twitter/hadoop-lzo 下载,解压进入目录, mvn clean package

 在 target 下 hadoop-lzo-0.4.20-SNAPSHOT.jar    target/native/Linux-amd64-64/lib 下有 libgplcompression 库

 jar包拷贝到hadoop lib目录下, gplcompression库拷贝到lib/native/Linux-amd64-64/lib下

  在hadoop客户端或者各个节点,不需要都安装lzo库,可以直接把lzo库拷贝到 hadoop 下的 lib/native/Linux-amd64-64/lib下

  

总结:编译hadoop-lzo ,lzo-devl库同样不能少。

 

4. 修改hadoop 客户端配置文件(我们只需要在使用flume的机器上配置)

   http://heylinux.com/archives/2078.html

 

郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。