我想在AWS EMR上调优我的spark集群,但我无法更改spark.driver.memory的默认值,这会导致每个spark应用程序崩溃,因为我的数据集很大。
我尝试在主机上手动编辑spark-defaults.conf文件,还尝试在创建集群时直接在EMR仪表板上使用JSON文件进行配置。
下面是使用的JSON文件:
[
{
"Classification": "spark-defaults",
"Properties": {
"spark.driver.memory": "7g",
"spark.driver.cores": "5",
"spark.executor.memory": "7g",
"spark.executor.cores": "5",
"spark.executor.instances": "11"
}
}
]使用JSON文件后,在" spark -defaults.conf“中可以正确地找到配置,但在spark仪表板上,"spark.driver.memory”的默认值始终为1000M,而其他值则被正确修改。有没有人遇到过同样的问题?提前谢谢你。
发布于 2019-04-11 23:55:56
您需要设置
maximizeResourceAllocation=true
在spark-defaults设置中
[
{
"Classification": "spark",
"Properties": {
"maximizeResourceAllocation": "true"
}
}
]https://stackoverflow.com/questions/55636400
复制相似问题