我想确保我的spark作业不会占用比我传递的内存更多的内存,假设400 do是该作业可以使用的最大内存,根据我的理解,关闭动态分配(spark.dynamicAllocation.enabled = false)并传递--num-executors --内存--驱动程序--内存在Cloudera栈中执行作业吗?如果错误,请改正。
是否有任何其他设置,我必须设置,以确保spark作业不会超出限制。
发布于 2021-03-11 05:51:02
在我的工作中发现了一个解决方案,Cloudera集群有一个特殊的纱线参数,它不会让作业超过必须关闭或重置的特定限制。
https://community.cloudera.com/t5/Support-Questions/Yarn-memory-allocation-utilization/td-p/216290
https://stackoverflow.com/questions/63079945
复制相似问题