Hadoop streaming mapreduce多文件输入使用方法

本文介绍如何在Hadoop MapReduce程序中通过环境变量map_input_file来识别记录来自哪个输入文件。此方法适用于同时处理多个文件的情况,并提供了一个使用Python编写的示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


写Mapreduce程序时,常常会有同时处理多个输入文件的的需求,那么如何在map程序中方便的知道这一条record到底来自哪个文件呢?如果数据源是可控的,我们尚可以通过字段的个数等来判断,然而这不是一个优雅的方法,其实hadoop已经给了留了解决方法:在map端获取环境变量map_input_file(0.21.x的版本分支中是mapreduce_map_input_file)即为本次的输入文件。

以笔者使用的hadoop streaming + python环境为例:

输入文件有两个:
-input "/home/hadoop/file1"
-input "/home/hadoop/file2"

在mapper文件中:
if 'file1' in os.getenv('map_input_file'):
//文件1处理逻辑
if 'file2' in os.getenv('map_input_file'):
//文件2处理逻辑

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值