默认安装示例
-
按照本主题 安装和自定义部分中的说明执行默认安装。
-
运行 Spark 作业:
dcos spark run --submit-args="--class org.apache.spark.examples.SparkPi https://downloads.mesosphere.com/spark/assets/spark-examples_2.11-2.0.1.jar 30"
- 运行 Python Spark 作业:
dcos spark run --submit-args="https://downloads.mesosphere.com/spark/examples/pi.py 30"
- 运行 R Spark 作业:
dcos spark run --submit-args="https://downloads.mesosphere.com/spark/examples/dataframe.R"
- 查看您的作业:
访问 Spark 群集调度器:http://<dcos-url>/service/spark/
查看您的工作状态。也参观了 Mesos UI 在 http://<dcos-url>/mesos/
以查看作业日志。
高级示例
-
使用 Kafka 运行 Spark 流式作业:连接到安全 Kafka 群集的 Spark 流式应用程序的示例可在 spark-build 找到。 正如 使用 Keberos 安全的 Kafka 部分中所述,Spark 需要 JAAS 文件、
krb5.conf
和 keytab。JAAS 文件的示例:KafkaClient { com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true storeKey=true keyTab="/mnt/mesos/sandbox/kafka-client.keytab" useTicketCache=false serviceName="kafka" principal="client@LOCAL"; };
对应的 dcos spark
命令为:
dcos spark run --submit-args="\
--conf spark.mesos.containerizer=mesos \ # required for secrets
--conf spark.mesos.uris=<URI_of_jaas.conf> \
--conf spark.mesos.driver.secret.names=spark/__dcos_base64___keytab \ # DC/OS 1.10 或更低版本所需的 base64 编码二进制密钥
--conf spark.mesos.driver.secret.filenames=kafka-client.keytab \
--conf spark.mesos.executor.secret.names=spark/__dcos_base64___keytab \
--conf spark.mesos.executor.secret.filenames=kafka-client.keytab \
--conf spark.mesos.task.label=DCOS_SPACE:/spark \
--conf spark.scheduler.minRegisteredResourcesRatio=1.0 \
--conf spark.executorEnv.KRB5_CONFIG_BASE64=W2xpYmRlZmF1bHRzXQpkZWZhdWx0X3JlYWxtID0gTE9DQUwKCltyZWFsbXNdCiAgTE9DQUwgPSB7CiAgICBrZGMgPSBrZGMubWFyYXRob24uYXV0b2lwLmRjb3MudGhpc2Rjb3MuZGlyZWN0b3J5OjI1MDAKICB9Cg== \
--conf spark.mesos.driverEnv.KRB5_CONFIG_BASE64=W2xpYmRlZmF1bHRzXQpkZWZhdWx0X3JlYWxtID0gTE9DQUwKCltyZWFsbXNdCiAgTE9DQUwgPSB7CiAgICBrZGMgPSBrZGMubWFyYXRob24uYXV0b2lwLmRjb3MudGhpc2Rjb3MuZGlyZWN0b3J5OjI1MDAKICB9Cg== \
--class MyAppClass <URL_of_jar> [application args]"