使用本地虚拟机搭建ip地址映射问题

来源:4-5 -Kafka单节点单broker的部署及使用

woaiyuyu

2019-04-15

老师好,我想请教一下如果我是用mac系统虚拟机自行搭建linux开发环境,那么我的ip地址映射应该怎么处理呢?我需要对/etc/hosts文件怎么修改能够达到您课件里用hadoop000就可以很方便的进行映射的状态呢?因为我尝试使用localhost的时候经常连不通,比如java api和一开始hadoop就连不通,后来我在hadoop搭建的时候设置了一个0.0.0.0的映射名字叫hadoop,通过这个名字写入到hdfs://hadoop:8020时可以运行hadoop成功,请问这个原理是什么呢?谢谢老师!图片描述

写回答

2回答

Michael_PK

2019-04-15

你图上的那个不需要0.0.0.0,只需要把第一行那个IP后面很长的那个写成hadoop就行了

0
0

Michael_PK

2019-04-15

Mac的hosts里面写上虚机的IP和hadoop就可以了。你已经是Mac 了,直接在Mac上搭建hadoop,kafka就行了,不需要在Mac上搭建虚拟机了,Mac OS就是类似Linux的系统了

0
2
Michael_PK
回复
woaiyuyu
理解对的。个人非常喜欢在Mac上学大数据,因为Linux类似的方便
2019-04-15
共2条回复

Spark Streaming实时流处理项目实战

Flume+Kafka+Spark Streaming 构建通用实时流处理平台

1404 学习 · 571 问题

查看课程