提高Hadoop的計算开发效率.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
提高Hadoop的計算开发效率

提高Hadoop的计算开发效率 问题——Hadoop开发效率低 Hadoop是优秀的大数据解决方案,低成本和高扩展性是用户选择它的主要原因,但它低下的开发效率也常被用户所诟病。 Hadoop使用MapReduce框架进行大数据的开发和计算,进行简单的计算时问题并不会显露出来。一旦计算稍有难度,就会明显影响开发效率。 以“关联计算”这种最常见的计算为例。 例如:HDFS上有2个文件,分别是客户信息和订单信息,customerID是它们之间的关联字段。如何进行关联计算,以便将客户名称添加到订单列表中? 一般方法是:输入2个源文件。根据文件名在Map中处理每条数据,如果是Order,则在foreign key上加标记”O”,形成combined key;如果是Customer则做标记”C”。Map之后的数据按照key分区,再按照combined key分组排序。最后在reduce中合并结果再输出。 实现代码: public static class JMapper extends MapperLongWritable, Text, TextPair, Text { //mark every row with O or C according to file name @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String pathName = ((FileSplit) context.getInputSplit()).getPath().toString(); if (pathName.contains(order.txt)) {//identify order by file name String values[] = value.toString().split(\t); TextPair tp = new TextPair(new Text(values[1]), new Text(O));//mark with O context.write(tp, new Text(values[0] + \t + values[2])); } if (pathName.contains(customer.txt)) {//identify customer by file name String values[] = value.toString().split(\t); TextPair tp = new TextPair(new Text(values[0]), new Text(C));//mark with C context.write(tp, new Text(values[1])); } } } public static class JPartitioner extends PartitionerTextPair, Text { //partition by key, i.e. customerID @Override public int getPartition(TextPair key, Text value, int numParititon) { return Math.abs(key.getFirst().hashCode() * 127) % numParititon; } } public static class JComparator extends WritableComparator { //group by muti-key public JComparator() { super(TextPair.class, true); } @SuppressWarnings(unchecked) public int compare(WritableComparable a, WritableComparable b) { TextPair t1 = (TextPair) a; TextPair t2 = (TextPair) b; return t1.getFirst().compareTo(t2.getFirst());

文档评论(0)

sfkl + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档