在Ubuntu下使用Eclispe连接hadoop时拒绝链接解决方案总结
Cannot connect to the Map/Reduce location: hadoop1.0.3
Call to ubuntu/192.168.1.111:9000 failed on connection exception: java.net.ConnectException: 拒绝连接
1.常见解决办法:配置都很正常,就是连接不了。后来重新配置hadoop location,把Map/Reduce Master 和 DFS Master中的Host由localhost改成了ip地址(192.168.1.111),然后问题就解决了。奇怪,localhost不就是本机嘛,而namenode主机(192.168.1.111)也是本机。
2.eclipse的hadoop插件与hadoop的版本号不一致导致的,你最好使用下载的hadoop包解压后的contri文件中的eclipse插件
3.hadoop-site.xml文件配置错误
<property>
<name>fs.default.name</name>
<value>hdfs://你的用户名:9000</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://用户名:9001</value>
</property>
4.关闭hdfs权限:hdfs-site.xml中 <property> <!-- 是否对DFS中的文件进行权限控制(测试中一般用false)--> <name>dfs.permissions</name> <value>false</value> </property> 5.检查eclipse插件是否设置了hadoop安装目录:将与linux下安装的hadoop相同版本的hadoop解压到windows下一个文件夹,然后指定hadoop插件目录,插件目录在preferences的map/reduce的hadoop installation location 6.在windows的hosts文件中添加hadoop所有节点的ip和主机名 7.关闭linux系统防火墙 8.把hadoop三个配置文件中涉及到的主机名全部改成ip地址,master和salves文件也改成ip 9/etc/hosts出错
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。