首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么我无法在AWS Elastic Map Reduce中更改"spark.driver.memory“值?

为什么我无法在AWS Elastic Map Reduce中更改"spark.driver.memory“值?
EN

Stack Overflow用户
提问于 2019-04-11 23:43:27
回答 1查看 390关注 0票数 1

我想在AWS EMR上调优我的spark集群,但我无法更改spark.driver.memory的默认值,这会导致每个spark应用程序崩溃,因为我的数据集很大。

我尝试在主机上手动编辑spark-defaults.conf文件,还尝试在创建集群时直接在EMR仪表板上使用JSON文件进行配置。

下面是使用的JSON文件:

代码语言:javascript
复制
[
  {
    "Classification": "spark-defaults",
    "Properties": {
      "spark.driver.memory": "7g",
      "spark.driver.cores": "5",
      "spark.executor.memory": "7g",
      "spark.executor.cores": "5",
      "spark.executor.instances": "11"
      }
  }
]

使用JSON文件后,在" spark -defaults.conf“中可以正确地找到配置,但在spark仪表板上,"spark.driver.memory”的默认值始终为1000M,而其他值则被正确修改。有没有人遇到过同样的问题?提前谢谢你。

EN

回答 1

Stack Overflow用户

发布于 2019-04-11 23:55:56

您需要设置

maximizeResourceAllocation=true

在spark-defaults设置中

代码语言:javascript
复制
[
   {
    "Classification": "spark",
    "Properties": {
       "maximizeResourceAllocation": "true"
    }
  }
]
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/55636400

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档