苏晓黑 发表于 2015-9-18 15:13:39
开发环境是redhat版本的linux,hadoop2.7.1我在运行wordcount时遇到了一个问题,一直卡在 “ INFO mapreduce.Job: Running job: job_1442558810788_0002 ” 而不能继续,我看了详细的打印信息,是一直在做这个请求。在网上找的答案,说是linux的"/etc/hosts"文件的问题,我的hosts文件配置如下。core-site.xml配置如下,mapred-site.xml,yarn-site.xml配置如下,hdfs-site.xml配置如下。请各位大神指教了。xorxos 发表于 2015-10-28 17:10:52
感谢楼主,辛苦winning1688888 发表于 2015-10-30 21:06:52
很棒的贴子,对新人帮助很大,谢谢了。yanzhihua88 发表于 2015-10-31 10:07:49
谢谢分享,顶linian_hadoop 发表于 2015-11-17 11:22:18
{:soso_e179:},这个非常给力!赞~~zoonctrl 发表于 2015-12-25 16:17:57
总结很到位希望以后多来点更高级的 干货就更好了a397085984 发表于 2016-1-14 15:21:25
大神,接受膜拜吧mc123612997 发表于 2016-1-18 13:02:45
还没开始看,先谢过楼主mc123612997 发表于 2016-1-19 17:21:47
mark,多多学习shanquan2006 发表于 2016-1-26 10:15:43
支持,很有用的。