首页 > Windows开发 > 详细

Hadoop:用API来压缩从标准输入中读取的数据并将其写到标准输出

时间:2015-03-09 17:27:12      阅读:247      评论:0      收藏:0      [点我收藏+]

 

程序如下:

package com.lcy.hadoop.examples;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.compress.CompressionCodec;
import org.apache.hadoop.io.compress.CompressionOutputStream;
import org.apache.hadoop.util.ReflectionUtils;

public class StreamCompressor {

    public static void main(String[] args) throws Exception{
        // TODO Auto-generated method stub
        String codecClassname=args[0];
        Class<?> codecClass=Class.forName(codecClassname);
        Configuration conf=new Configuration();
        CompressionCodec codec=(CompressionCodec)ReflectionUtils.newInstance(codecClass, conf);
        
        CompressionOutputStream out=codec.createOutputStream(System.out);
        IOUtils.copyBytes(System.in, out, 4096,false);
        out.finish();
    }
}

 

运行程序,输入如下命令:

hadoop@lcyvino-VirtualBox:~$ echo "lcyvino" | hadoop jar /usr/local/testJar/StreamComPressor.jar com.lcy.hadoop.examples.StreamCompressor org.apache.hadoop.io.compress.GzipCodec | gunzip

 

运行结果:

技术分享

Hadoop:用API来压缩从标准输入中读取的数据并将其写到标准输出

原文:http://www.cnblogs.com/Murcielago/p/4324050.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!