sstutu 发表于 2017-4-14 16:07 膜拜,膜拜,心中充满了激动与对您的感谢,以前不知道溢于言表什么感觉,现在终于知道了!!!终于解决了,太感谢您了,果然是gz文件的问题,往后有哪位朋友也遇到同样问题时候,建议最好上传txt类型数据文件。最后,还得感谢大神!解决了困惑我好几天的问题!赞一个! |
1601365 发表于 2017-4-14 16:05 那最好是先把hadoop集群搭建正确了 ,先跑wordcount程序确保集群能够正常运行,再完成自己的mapreduce程序为好。 |
sstutu 发表于 2017-4-14 16:07 我原先看教学视频上是gz文件,如果不是gz文件,我最好应该上传什么文件好啊。 |
1601365 发表于 2017-4-14 15:58 一个个解决,你这里明显有问题。下面红字部分先解决掉。为什么还有gz文件。datanode根本不能保存。 attempt_1492080262949_0002_m_000000_0, Status : FAILED Error: org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-1808748719-192.168.20.128-1488809333278:blk_1073741826_1002 file=/user/it18zhang/ncdc_data/1902.gz |
tanxl 发表于 2017-4-14 09:59 WordCount程序也一样出错,而且有时候还有Interruptedexception,哎,卡了好几天,要崩溃了 |
jps看下datanode可能有挂掉的。 最好重启下集群。 有的datanode在刚启动的时候是没有问题的,但是一会就挂掉了。 |
问一下:你的hadoop集群能跑基本的wordcount程序吗,先试一下跑一下wordcount程序 |