hiveOnSpark运行出现错误,如何解决呢?急急急急急

出现错误如下:
hive failed with java.lang.classnotfoundexception:org.apache.hadoop.crypto.key.keyprovider

真的很急,拜托各位大佬,跪求解决!!!

我的spark版本是 spark-2.0.0 without-hive(在官网上下载的是匹配Hadoop2.4的)

我的hive版本 是 2.3.2

我的Hadoop版本是2.7.3

一开始以为版本差别不大应该没事呢,结果运行插入,建表没问题,如果查询就会出错

我现在的解决办法是把Hadoop-common-2.4.1放到hive/lib中,请问可以解决吗?


![图片说明](https://img-ask.csdn.net/upload/202005/29/1590748673_637844.jpeg)









#Spark##Hadoop##Linux#
全部评论
少了hadoop-common-2.7.3.jar的包,下载这个包放到hive的lib目录下
2 回复 分享
发布于 2020-05-31 10:05

相关推荐

不愿透露姓名的神秘牛友
07-21 13:41
点赞 评论 收藏
分享
07-09 20:50
门头沟学院 Java
码农索隆:1.教育背景和荣誉证书合二为一。 2.获奖项目理一遍,你做了什么,对你求职的岗位有什么帮助,没有就删掉。 3.技能特长和教育背景交换位置。 4.技能特长写的太差,上网上找简历参考。都不用问你别的,一个redis就能把你问住,写写你具体会redis哪些方面的知识。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务