老师 你好 我使用saprk-shell 时候 总是报这个错误如图;

来源:7-6 -操作Hive表数据

qq_Red_3

2017-06-28

http://szimg.mukewang.com/5953577b000148e617700702.jpg百度说更改mysql的字符集 。改过之后还是会报错,但是下面还是可以使用 sc 和  spark

写回答

4回答

音策

2017-06-28

应该就是字符集的问题,可参看http://sunjia-704471770-qq-com.iteye.com/blog/1631430 尝试解决

0
3
qq_Red_3
回复
Michael_PK
嗯 use sparksql 然后 执行 alter database sparksql character set latin1; 还是报那个错误
2017-07-01
共3条回复

qq_Red_3

提问者

2017-07-01

这个问题解决了,使用alter database xxx character set latin1;后。发现里面的table的字符集还是utf-8。所以在mysql中 use xxxx;然后alter table PARTITIONS convert to character set latin1;     alter table PARTITION_KEYS convert to character set latin1;  问题解决了


1
0

进击的大黄鸭

2017-07-01

你解决了吗 我也是这个问题 修改字符集也没有用啊

0
1
qq_Red_3
没解决,改了 还是这个问题
2017-07-01
共1条回复

Michael_PK

2017-06-28

修改完字符集,就能使用

0
0

以慕课网日志分析为例 进入大数据Spark SQL的世界

快速转型大数据:Hadoop,Hive,SparkSQL步步为赢

1644 学习 · 1129 问题

查看课程