这个问题要如何解决

来源:9-5 Hadoop集群部署

chipinzhen

2019-08-15

java.io.EOFException: End of File Exception between local host is: “hadoop000/192.168.1.118”; destination host is: “hadoop000”:8020; : java.io.EOFException; For more details see: http://wiki.apache.org/hadoop/EOFException
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:791)
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:764)
at org.apache.hadoop.ipc.Client.call(Client.java:1475)
at org.apache.hadoop.ipc.Client.call(Client.java:1408)
at org.apache.hadoop.ipc.ProtobufRpcEngineInvoker.invoke(ProtobufRpcEngine.java:230)atcom.sun.proxy.Invoker.invoke(ProtobufRpcEngine.java:230) at com.sun.proxy.Invoker.invoke(ProtobufRpcEngine.java:230)atcom.sun.proxy.Proxy13.sendHeartbeat(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolClientSideTranslatorPB.sendHeartbeat(DatanodeProtocolClientSideTranslatorPB.java:154)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.sendHeartBeat(BPServiceActor.java:557)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:660)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:851)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.io.EOFException
at java.io.DataInputStream.readInt(DataInputStream.java:392)
at org.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080)atorg.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080) at org.apache.hadoop.ipc.ClientConnection.receiveRpcResponse(Client.java:1080)atorg.apache.hadoop.ipc.ClientConnection.run(Client.java:975)

这个问题是namenodeid和datanodeid的不一致的问题吗,
如果不是该怎么解决。

我们平时操作的时候如何解决namenodeid和datanodeid不一致的问题?

写回答

1回答

Michael_PK

2019-08-15

namenodeid和datanodeid不一致 一般是 格式化之前没有把dfs.namenode.name.dir以及dfs.datanode.data.dir指定的目录清除了。

你这个问题,至少从你提交的日志上并没看到是不一致的信息。你看下你的hadoop000机器的ip是否是192.168.1.118,以及他们的映射关系是否配置对了


0
4
Michael_PK
回复
chipinzhen
自己的机器,如果真不行, 就把配置目录记录本地数据的目录删了,重新格式化试试,当然,格式化原来HDFS上的数据就没了,慎重选择
2019-08-15
共4条回复

Hadoop 系统入门+核心精讲

从Hadoop核心技术入手,掌握数据处理中ETL应用,轻松进军大数据

2398 学习 · 902 问题

查看课程