博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop任务map将其输入写入本地硬盘,而非hdfs,为什么
阅读量:6838 次
发布时间:2019-06-26

本文共 215 字,大约阅读时间需要 1 分钟。

hot3.png

因为map的输出是中间的结果,这个中间结果是由reduce处理后才产生最终输出结果,而且一旦作业完成,map的输出结果就可以删除。如果把它存储在hdfs中就并备份,难免有些小题大作,如果运行map任务的节点将map中间结果传送给reduce任务之前失败,hadoop将在另一个节点上重新运行这个map任务以在此构建mao中间结果。

转载于:https://my.oschina.net/u/4009325/blog/2396152

你可能感兴趣的文章
springmvc 将post转换为delete,put
查看>>
第二届清华大学项目管理精英训练营【敏捷个人】分享
查看>>
Centos 安装 Solr
查看>>
Android Toast自己定义Toast例子
查看>>
bash shell实现二进制与十进制数的互转
查看>>
精准测试
查看>>
Oracle11G_逻辑备份
查看>>
Linux正变得无处不在;应用大盘点
查看>>
IEEE期刊
查看>>
pssh使用
查看>>
索引优化系列十四--啥时分区索引性能反而低
查看>>
hive的变量传递设置
查看>>
apache-shiro杂记(三) 用了apache-shiro后,HttpSession.getServletContext() API无法正常工作了...
查看>>
Jquery的$命名冲突
查看>>
经常用到的JS 表单验证函数
查看>>
eclipse 中的 maven run configurations
查看>>
并查集
查看>>
无刷新读取数据库 (ajax)
查看>>
mysql事务介绍
查看>>
css(hr元素)水平线的定位
查看>>