首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏个人积累

    geode的安装部署

    我这里是 D:/geode/leap 复制到该目录下 按住shift+鼠标右键,选择进入命名管理工具 先输入gfsh命令 ,然后依次执行以下命名 hostname-for-clients和properties-file --name=locator_leap1 --hostname-for-clients=192.168.5.130 --port=30001 --http-service-port=34001 --properties-file Dgemfire.ALLOW_PERSISTENT_TRANSACTIONS=true --J=-Dp2p.handshakeTimeoutMs=75000 --J=-Djava.net.preferIPv4Stack=true --properties-file Dgemfire.ALLOW_PERSISTENT_TRANSACTIONS=true --J=-Dp2p.handshakeTimeoutMs=75000 --J=-Djava.net.preferIPv4Stack=true --properties-file

    77431发布于 2020-10-10
  • 来自专栏个人积累

    Geode集群搭建

    --name=locator_leap1 --hostname-for-clients=192.168.5.130 --port=30001 --http-service-port=34001 --properties-file Dgemfire.ALLOW_PERSISTENT_TRANSACTIONS=true --J=-Dp2p.handshakeTimeoutMs=75000 --J=-Djava.net.preferIPv4Stack=true --properties-file

    1.4K41发布于 2020-10-10
  • 来自专栏Soul Joy Hub

    深入理解Spark 2.1 Core (五):Standalone模式运行的原理与源码分析

    --webui-port" :: IntParam(value) :: tail => webUiPort = value parse(tail) case ("--properties-file default: 7077)\n" + " --webui-port PORT Port for web UI (default: 8080)\n" + " --properties-file --webui-port" :: IntParam(value) :: tail => webUiPort = value parse(tail) case ("--properties-file

    1K20发布于 2019-02-13
  • 来自专栏python前行者

    [1015]spark-submit提交任务及参数说明

    class --name --jars --packages --exclude-packages --repositories --py-files --files --conf PROP=VALUE --properties-file VALUE 指定spark配置属性的值,格式为PROP=VALUE, 例如 -conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m" –properties-file

    10K21发布于 2021-07-14
  • 来自专栏机器学习/数据可视化

    sqoop之旅2-基本使用

    connection manager class name --connection-param-file <properties-file

    57710发布于 2021-03-02
  • 来自专栏大数据-BigData

    Spark如何启动Spark Thrift Server服务

    --properties-file FILE Path to a file from which to load extra properties.

    2K20编辑于 2022-05-26
  • 来自专栏Deep learning进阶路

    Pyspark学习笔记(二)--- spark-submit命令

    --properties-file:配置文件。它应该有和conf/spark-defaults.conf文件相同的属性设置,也是可读的。

    2.6K21发布于 2021-05-10
  • 来自专栏Spark学习技巧

    聊聊spark-submit的几个有用选项

    --properties-file选项 英文说明: Path to a file from which to load extra properties. liyong/.m2/repository/org/eclipse/jetty/jetty-plus/9.3.20.v20170531/jetty-plus-9.3.20.v20170531.jar \ --properties-file

    2.8K30发布于 2018-06-22
  • 来自专栏大数据与云原生

    Spark源码分析-作业提交(spark-submit)

    生成sparksubmit的java命令: 1) 加载配置文件(通过--properties-file指定,否则spark-defaults.conf), 2) 通过i步配置确定是否clientMode

    1.4K30编辑于 2022-03-30
  • 来自专栏乘风破浪

    EMR入门学习之通过SparkSQL操作示例(七)

    --properties-file spark.yarn.principal 配置文件 conf/default.spark --conf 其他额外的spark配置属性。

    1.8K30发布于 2019-11-18
  • 来自专栏Hadoop实操

    0483-如何指定PySpark的Python运行环境

    submit命令提交pi.py作业测试运行的Python环境 spark2-submit --master yarn \ --driver-memory 4G --executor-memory 4G \ --properties-file

    6.2K30发布于 2019-11-28
  • 来自专栏Deep learning进阶路

    Pyspark学习笔记(二)--- spark部署及spark-submit命令简介

    properties-file 配置文件。它应该有和conf/spark-defaults.conf文件相同的属性设置,也是可读的。

    3.1K10编辑于 2022-11-28
  • 来自专栏Jed的技术阶梯

    利用Sqoop实现HDFS的数据与MySQL数据的互导

    connection-manager <class-name> Specify connection manager class name --connection-param-file <properties-file

    1.3K20发布于 2018-09-13
  • 来自专栏Hadoop实操

    0923-7.1.9-使用S3 Gateway访问Ozone

    = none spark.hadoop.fs.s3a.path.style.access = true 2.使用S3 properties文件启动spark-shell spark-shell --properties-file

    78510编辑于 2024-05-09
  • 来自专栏猫头虎博客专区

    ZooKeeper

    ZooKeeper的常用命令; [zk: 127.0.0.1:2181(CONNECTED) 0] help ZooKeeper -server host:port -client-configuration properties-file

    34510编辑于 2024-04-07
  • 来自专栏大数据成长之路

    Spark命令详解

    --properties-file FILE Path to a file from which to load extra properties.

    1.8K40发布于 2021-01-27
  • 来自专栏mall学习教程

    顶级分布式开源项目,配上这款可视化工具,真香!

    ZooKeeper的常用命令; [zk: 127.0.0.1:2181(CONNECTED) 0] help ZooKeeper -server host:port -client-configuration properties-file

    83810发布于 2021-07-02
  • 来自专栏牛肉圆粉不加葱

    [源码剖析]Spark读取配置Spark读取配置

    protected final String PACKAGES_EXCLUDE = "--exclude-packages"; protected final String PROPERTIES_FILE = "--properties-file

    2K30发布于 2018-08-24
  • Spark历史服务器:高效监控与诊断已完成应用的利器

    职场常见权限问题可通过以下命令预先排查: # 检查HDFS目录权限 hdfs dfs -ls /spark/logs # 或本地路径权限 ls -ld /local/log/path 如遇端口冲突,可使用--properties-file 指定自定义配置: $SPARK_HOME/sbin/start-history-server.sh --properties-file /path/to/custom.conf 部署模式选择 Spark

    35110编辑于 2025-11-28
  • 来自专栏容器计算

    Spark on Kubernetes在Mac的Demo

    -s -- /opt/spark/bin/spark-submit --conf spark.driver.bindAddress=10.1.0.23 --deploy-mode client --properties-file

    95431发布于 2020-08-06
领券