启动hadoop时候执行start-dfs.sh,报了图中的错误,这是什么原因?

来源:2-4 -Hadoop环境搭建

baby猫

2018-08-19

相关配置文件内容如下:

core-site.xml

<configuration>

  <property>

    <name>fs.default.name</name>

    <value>hdfs//:hadoop000:8020</value>

  </property>

</configuration>


hadoop-env.sh

export JAVA_HOME=/home/babycat/app/jdk1.8.0_91


hdfs-site.xml

<configuration>

  <property>

    <name>dfs.namenode.name.dir</name>

    <value>/home/babycat/app/tmp/dfs/name</value>

  </property>

  <property>

    <name>dfs.datanode.data.dir</name>

    <value>/home/babycat/app/tmp/dfs/data</value>

  </property>

  <property>

    <name>dfs.replication</name>

    <value></value>

  </property>

</configuration>


marped-site.xml

<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

</configuration>


yarn-site.xml

<configuration>http://img.mukewang.com/szimg/5b78e00c0001312909750189.jpg


<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>


写回答

1回答

Michael_PK

2018-08-19

ssh感觉配置的不对,现在应该是每个进程都需要你输入密码是吗?你把你用户的根目录下的隐藏文件夹.ssh删了,然后重新生成ssh。生成完,ssh localhost  或者  ssh 你的hostname测试下

0
4
Michael_PK
回复
baby猫
ssh localhost呢是否ok 如果都ok,那么重启下hadoop
2018-08-20
共4条回复

Python3实战Spark大数据分析及调度

使用Python3对Spark应用程序进行开发调优,掌握Azkaban任务调度

1046 学习 · 434 问题

查看课程