首页 > 数据库技术 > 详细

Error while instantiating 'org.apache.spark.sql.hive.HiveSessionStateBuilder': —— windows 开发环境使用spark 无法访问hdfs 问题解决

时间:2020-12-17 09:32:04      阅读:35      评论:0      收藏:0      [点我收藏+]

## 错误:

技术分享图片

 

 ## 解决方案:

下载 hadoop 的可执行tar包,解压放在windows 本地,并配置环境变量。 在 解压后的文件夹的bin目录下放入两个文件: winutils.exe, hadoop.dll  

## windows 上hadoop 工具的获取:https://github.com/steveloughran/winutils/tree/master/hadoop-2.6.4/bin       (或者自行百度一下)

 

Error while instantiating 'org.apache.spark.sql.hive.HiveSessionStateBuilder': —— windows 开发环境使用spark 无法访问hdfs 问题解决

原文:https://www.cnblogs.com/nulijiushimeili/p/14147751.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!