配置hadoop集群时,slave连接不到master上

来源:9-24 -Spark on YARN基础

qq_因为乌鸦像写字台_0

2018-09-14

我在配hadoop集群时,使用start-all.sh后到50070端口看,发现livenode只有主节点,slave上的datanode日志中有错,我的所有配置文件都放在下面的截图了图片描述图片描述图片描述图片描述图片描述
图片描述图片描述图片描述

写回答

1回答

Michael_PK

2018-09-14

RPC连不到9000,你看下你的slave文件中的hostname在IP和hostname的映射关系是是否正确配置了。建议分开起,先启动dfs的,确保没问题在yarn

0
3
qq_因为乌鸦像写字台_0
我尝试在主节点退出safemode,结果也报错 18/09/14 06:33:13 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 18/09/14 06:33:15 WARN ipc.Client: Failed to connect to server: bigdata1/192.168.1.101:9000: try once and fail. java.net.ConnectException: Connection refused at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:717) at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206) at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:530) at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:494) at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:6
2018-09-14
共3条回复

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程