Hadoop Eclipse环境搭建不起来,MapReduce location status updater

查看数: 14137 | 评论数: 4 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2017-1-14 21:54

正文摘要:

按照网上的教程想搭建一套eclipse的开发环境。结果碰到如图所示问题。 以下是我的配置信息: core-site.xml: <configuration>     <property>         <nam ...

回复

wjcaitu 发表于 2017-1-15 09:49:50
nextuser 发表于 2017-1-15 08:35
fs.defaultFS
        http://192.168.1.9:9000
   

多谢回复。
我试了下你的方案,还是有这样的问题。
为啥会提示mapred/JobConf呢?是这个库加载不起来么?
nextuser 发表于 2017-1-15 08:35:53
<property>
        <name>fs.defaultFS</name>
        <value>http://192.168.1.9:9000</value>
    </property>

        <property>
          <name>hadoop.tmp.dir</name>
          <value>/soft/hadoop/hdfs-dir</value>
         </property>

这两个配置项不正确。
可以改为:
hdfs://192.168.1.9:9000和file:///soft/hadoop/hdfs-dir,并且注意权限


可对比参考下面两篇文章
about云日志分析项目准备:Hadoop2.x集群安装及常见配置项说明

about云日志分析项目准备6:Hadoop、Spark集群搭建

wjcaitu 发表于 2017-1-14 21:57:42
请问有人知道吗
wjcaitu 发表于 2017-1-14 21:54:42
希望大家帮帮我,我已经弄了2天了,在centos的虚拟机上也同样出现该问题,快奔溃了
关闭

推荐上一条 /2 下一条