首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >spark关闭动态分配

spark关闭动态分配
EN

Stack Overflow用户
提问于 2020-07-25 03:00:59
回答 1查看 783关注 0票数 0

我想确保我的spark作业不会占用比我传递的内存更多的内存,假设400 do是该作业可以使用的最大内存,根据我的理解,关闭动态分配(spark.dynamicAllocation.enabled = false)并传递--num-executors --内存--驱动程序--内存在Cloudera栈中执行作业吗?如果错误,请改正。

是否有任何其他设置,我必须设置,以确保spark作业不会超出限制。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-03-11 05:51:02

在我的工作中发现了一个解决方案,Cloudera集群有一个特殊的纱线参数,它不会让作业超过必须关闭或重置的特定限制。

https://community.cloudera.com/t5/Support-Questions/Yarn-memory-allocation-utilization/td-p/216290

https://docs.cloudera.com/HDPDocuments/HDP2/HDP-2.6.4/bk_command-line-installation/content/determine-hdp-memory-config.html

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63079945

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档