运行hadoop报错,用的是git 里的配置文件
来源:6-3 开发环境搭建

qq_北辰元凰_0
2023-02-03
dfs.nameservices
hdfs://xichen1
dfs.namenode.name.dir
file:/opt/tmp/name
dfs.datanode.data.dir
file:/opt/tmp/data
dfs.replication
3
dfs.ha.namenodes.ns
nn1,nn2
dfs.namenode.http-address.ns.nn1
xichen1:50070
dfs.namenode.http-address.ns.nn2
xichen2:50070
dfs.namenode.rpc-address.ns.nn1
xichen1:50080
dfs.namenode.rpc-address.ns.nn2
xichen2:50080
dfs.namenode.shared.edits.dir
qjournal://xichen1:8584;xichen2:8584;xichen3:8584/xichen1
dfs.journalnode.edits.dir
/opt/journalnode
dfs.ha.fencing.methods
sshfence
dfs.ha.fencing.ssh.private-key-files
/home/hadoop/.ssh/id_rsa
dfs.client.failover.proxy.provider.ns
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider
dfs.ha.automatic-failover.enabled
true
dfs.permissions.enabled
false
dfs.safemode.threshold.pct
1
写回答
1回答
-
小简同学
2023-02-04
同学你好,是hdfs-site.xml有些地方没有配置正确,如果确实没法启动成功就先放着吧,项目没有放到服务器运行的,基本都是在idea本地运行,数据都是读取excel文件的,现在大数据的服务器搭建还是很麻烦的,如果不是做运维的,没必要花太多时间在服务器的配置上,如果同学了解过docker,基本可以通过docker搭建大数据集群,这样会方便很多。祝学习愉快!00
相似问题
hadoop配置问题
回答 1
flume的配置后kafka没有数据
回答 1