sqoop脚本

来源:5-12 sqoop 将mysql数据导入到hive

weixin_慕妹3329874

2020-02-14

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_member \
--username root \
--password zhangyang517 \
--table t_member \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_member \
--hive-table t_member

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_member \
--username root \
--password zhangyang517 \
--table t_member_addr \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_member \
--hive-table t_member_addr

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_commodity \
--username root \
--password zhangyang517 \
--table t_commodity \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_commodity \
--hive-table t_commodity


./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_commodity \
--username root \
--password zhangyang517 \
--table t_commodity_cate \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_commodity \
--hive-table t_commodity_cate

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_operation \
--username root \
--password zhangyang517 \
--table t_delivery \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_operation \
--hive-table t_delivery

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_operation \
--username root \
--password zhangyang517 \
--table t_feedback \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_operation \
--hive-table t_feedback

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_operation \
--username root \
--password zhangyang517 \
--table t_shop \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_operation \
--hive-table t_shop

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_operation \
--username root \
--password zhangyang517 \
--table t_shop_order \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_operation \
--hive-table t_shop_order

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_operation \
--username root \
--password zhangyang517 \
--table t_user \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_operation \
--hive-table t_user

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_marketing \
--username root \
--password zhangyang517 \
--table t_coupon \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_marketing \
--hive-table t_coupon

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_marketing \
--username root \
--password zhangyang517 \
--table t_coupon_member \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_marketing \
--hive-table t_coupon_member

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_marketing \
--username root \
--password zhangyang517 \
--table t_coupon_order \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_marketing \
--hive-table t_coupon_order

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_order \
--username root \
--password zhangyang517 \
--table t_order \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_order \
--hive-table t_order

./sqoop import \
--connect jdbc:mysql://192.168.1.8:3306/i_order \
--username root \
--password zhangyang517 \
--table t_order_commodity \
--num-mappers 1 \
--hive-import \
--fields-terminated-by '\t' \
--hive-overwrite \
--hive-database i_order \
--hive-table t_order_commodity
写回答

2回答

ToughLearner

2020-03-23

很有帮助,感谢!

0
0

御风

2020-02-14

这是分享吗??

0
1
weixin_慕妹3329874
这部分内容属于繁琐的操作,想要自己写的同学就自己写,不想自己写的同学就直接拷贝过去,替换一下ip地址呗。可以省点时间。
2020-02-15
共1条回复

Spark + ElasticSearch 构建电商用户标签系统

更适合Java开发学的大数据项目 手把手带你了解企业级大数据项目

513 学习 · 157 问题

查看课程