首页 > 其他 > 详细

.sparkstaging设置

时间:2020-08-31 13:15:23      阅读:304      评论:0      收藏:0      [点我收藏+]

对于/user/root/.sparkStaging下文件,是spark任务依赖文件,可以将jar包上传到指定目录下,避免或减少了jar包的重复上传,进而减少任务的等待时间。

可以在spark的配置文件spark-defaults.conf配置如下内容:

spark.yarn.archive=hdfs://hdfscluster/user/hadoop/jars
spark.yarn.preserve.staging.files=false
spark.yarn.preserve.staging.files的参数说明:

Set to true to preserve the staged files (Spark jar, app jar, distributed cache files) at the end of the job rather than delete them.

.sparkstaging设置

原文:https://www.cnblogs.com/muyue123/p/13588773.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!