启动hadoop时候执行start-dfs.sh,报了图中的错误,这是什么原因?
来源:2-4 -Hadoop环境搭建
baby猫
2018-08-19
相关配置文件内容如下:
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs//:hadoop000:8020</value>
</property>
</configuration>
hadoop-env.sh
export JAVA_HOME=/home/babycat/app/jdk1.8.0_91
hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/babycat/app/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/babycat/app/tmp/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value></value>
</property>
</configuration>
marped-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
1回答
-
Michael_PK
2018-08-19
ssh感觉配置的不对,现在应该是每个进程都需要你输入密码是吗?你把你用户的根目录下的隐藏文件夹.ssh删了,然后重新生成ssh。生成完,ssh localhost 或者 ssh 你的hostname测试下
042018-08-20
相似问题
回答 2
回答 1