Spark整合hive的时候
 连接Hdfs不从我hive所在的机器上找,而是去连接我的集群里的另外两台机器
 但是我的集群没有开
 所以下面就一直在retry
 
 
猜测:
 
出现这个错误的原因可能与core-site.xml和hdfs-site.xml有关,因为这里面配置了集群的namenode信息
 
解决方案:
 
我新建了一个项目,里面没有core-site.xml和hdfs-site.xml
 只放进去一个hive-site.xml
 

 
错误原因:
 
我的hive-site.xml中没有图片中的三个配置,加上这三个配置就好了
 
