【甘道夫】Spark1.3.0 Submitting Applications 官方文档精华摘要
欢迎转载,请注明出处:
- --class: 应用程序的入口类,包含main方法;
- --master: 集群中Master节点的URL(e.g. spark://23.195.26.187:7077) ,该参数一言难尽,后面有详细说明;
- --deploy-mode: 决定你的driver程序的运行位置,cluster模式是运行在worker节点上,client模式是运行在集群外部。默认是client模式;
- --conf: 任意Spark的基础属性配置,用key=value格式;
- application-jar: 指向应用程序jar包的路径,路径必须全局可见,要么是一个hdfs路径,要么是一个所有node本地都有的文件路径;
- application-arguments: 应用程序接收的参数。
- client模式:一个常见的部署策略是从一台网关机器提交你的应用程序,这台机器和你的worker机器物理上很接近(例如集群中的Master节点)。在这样的场景下,client模式就非常适合。在client模式中,driver程序直接在spark-submit进程中启动,spark-submit进程对于集群来说就是一个客户端程序。应用程序的输入和输出都会通过控制台。这样的话,client模式就尤其适合包含REPL(“读取-求值-输出”循环,英语:Read-Eval-Print
Loop,简称REPL)的应用程序,比如Spark shell。
- cluster模式:另一个经典场景,cluster模式,如果你的应用程序从一台离workder机器较远的机器提交(例如从你的笔记本电脑上提交),通常会通过cluster模式来最小化driver和executors之间的网络延迟。注意,cluster模式现在尚未支持Mesos集群或者Python应用程序。
Master URL | Meaning |
---|---|
local | Run Spark locally with one worker thread (i.e. no parallelism at all). |
local[K] | Run Spark locally with K worker threads (ideally, set this to the number of cores on your machine). |
local[*] | Run Spark locally with as many worker threads as logical cores on your machine. |
spark://HOST:PORT | Connect to the given Spark standalone cluster master. The port must be whichever one your master is configured to use, which is 7077 by default. |
mesos://HOST:PORT |
Connect to the given Mesos cluster. The port must be whichever one your is configured to use, which is
5050 by default. Or, for a Mesos cluster using ZooKeeper, use mesos://zk://... . |
yarn-client |
Connect to a YARN cluster in client mode. The cluster location will be found based on the HADOOP_CONF_DIR variable. |
yarn-cluster |
Connect to a YARN cluster in cluster mode. The cluster location will be found based on HADOOP_CONF_DIR. |
郑重声明:本站内容如果来自互联网及其他传播媒体,其版权均属原媒体及文章作者所有。转载目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。