继续补充一些经历:
一早进入虚拟机启动Hadoop,发生异常,重新格式化一下恢复正常,原因待查(格式化:在hadoop目录下执行bin/hdfs namenode -format)
一早进入虚拟机启动Hadoop,发生异常,重新格式化一下恢复正常,原因待查(格式化:在hadoop目录下执行bin/hdfs namenode -format)
- java.net.ConnectException:Call From chenph-ubuntu/127.0.1.1 to localhost:9000 failed on connection
复制代码
- 试试昨天制作的成果——eclipse插件,按照网上的例子进行配置,失败,现象就是无法连接到虚拟机中的Hadoop,于是试验了如下情况
- 查看虚拟机中的ip,输入ifconfig,得到192.168.203.136,可以ping通win7的ip192.168.101.120
- 在win7中无法ping到192.168.203.136,原因是我将虚拟机创建的一个网络适配器禁用了,启用后通过在win7运行ipconfig -all可以看到一个192.168.203.1的ip,这个就是win7和ubuntu俩系统的网段的ip,这样就可以互相ping通了
- 可是eclipse中还是无法远程连接到hadoop,继续想办法,修改win7中的hosts文件,发现我的hosts文件在系统中没有,后来找到了(没有隐藏,而是设置成了系统保护,去掉保护就行了),增加一条对应的信息192.168.203.136 localhost
- 在eclipse中还是不行,这时候去ubuntu再次执行ipconfig,ip竟然变成了192.168.203.137,我眼花了???
- 把配置的ip统一改成192.168.203.137,再次试验,依然不行
- 这时候我把矛头指向了hadoop的配置,将所有配置localhost的地方统一改成了机器名,重新启动服务后,依然不行
- 因为ip自己会变的问题(可能是dhcp自动分配的问题吧,回头设置成固定的试试),所以上一步我用的机器名,这次我统一改成了ip
- 成了,一上午没白忙活
|