小编给大家分享一下配置HDFS HA后hive抛错Wrong FS怎么办,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
1.问题:
在CDH5.x或者Apache环境下,配置了NameNode的HA后,Hive无正常查询数据了。
Hive查询会出现如下异常:
FAILED: SemanticException Unable to determine if hdfs://hadoop-01:8020/user/hive/warehouse/t1
is encrypted: java.lang.IllegalArgumentException: Wrong FS: hdfs://hadoop-01:8020/user/hive/warehouse/t1, expected: hdfs://nameservice1
2.解决:
Hive元数据的问题,在Hive数据库中有两张表:
DBS : Hive数据仓库的总路径
SDS : Hive每张表对应的路径
a.进入mysql
b.use hive;
c.修改dbs 和 sds表
update DBS set DB_LOCATION_URI=REPLACE (DB_LOCATION_URI,'hadoop-01:8020','nameservice1');
update SDS set LOCATION=REPLACE (LOCATION,'hadoop-01:8020','nameservice1')
以上是“配置HDFS HA后hive抛错Wrong FS怎么办”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网行业资讯频道!