hiveOnSpark运行出现错误,如何解决呢?急急急急急

出现错误如下:
hive failed with java.lang.classnotfoundexception:org.apache.hadoop.crypto.key.keyprovider

真的很急,拜托各位大佬,跪求解决!!!

我的spark版本是 spark-2.0.0 without-hive(在官网上下载的是匹配Hadoop2.4的)

我的hive版本 是 2.3.2

我的Hadoop版本是2.7.3

一开始以为版本差别不大应该没事呢,结果运行插入,建表没问题,如果查询就会出错

我现在的解决办法是把Hadoop-common-2.4.1放到hive/lib中,请问可以解决吗?


![图片说明](https://img-ask.csdn.net/upload/202005/29/1590748673_637844.jpeg)









#Spark##Hadoop##Linux#
全部评论
少了hadoop-common-2.7.3.jar的包,下载这个包放到hive的lib目录下
2 回复
分享
发布于 2020-05-31 10:05

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务