集群API 2.0

请注意

容器服务不可用这个版本砖在谷歌的云上。

集群API允许您创建、启动、编辑、列表、终止和删除集群。请求的最大允许大小的集群API是10 mb。

集群生命周期方法需要集群ID,回来创建。获得一个集群列表,调用列表

Azure砖集群节点实例类型映射到计算单元称为DBUs。

砖都提供一年的弃用通知之前停止支持类型的一个实例。

警告

千万不要硬编码秘密或者存储在纯文本。使用秘密API 2.0管理的秘密砖CLI的设置和文档。使用秘密效用(dbutils.secrets)引用在笔记本和工作秘密。

重要的

访问数据砖REST api,你必须进行身份验证

创建

端点

HTTP方法

2.0 / /创建的集群

帖子

创建一个新的集群Apache火花。这个方法获得新实例从云提供商,如果必要的。这个方法是异步的;返回的cluster_id可以用来调查集群状态。这个方法返回时,集群中等待状态。集群可用一旦进入运行状态。看到ClusterState

请注意

砖可能无法获得的一些请求的节点,由于云提供商的限制或瞬态网络问题。如果砖获得至少85%的点播请求节点,创建集群会成功。否则集群将终止信息的错误消息。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/create\——数据@create-cluster.json

create-cluster.json:

{“cluster_name”:“memoptimized-cluster-1”,“spark_version”:“7.5.x-scala2.12”,“spark_conf”:{},“gcp_attributes”:{“use_preemptible_executors”:},“node_type_id”:“n1-highmem-4”,“driver_node_type_id”:“n1-highmem-4”,“ssh_public_keys”:[],“custom_tags”:{},“spark_env_vars”:{“PYSPARK_PYTHON”:“砖/ python3 / bin / python3”},“autotermination_minutes”:120年,“enable_elastic_disk”:,“cluster_source”:“API”,“init_scripts”:[],“num_workers”:25}
{“cluster_id”:“1234 - 567890 fogs123”}

这里有一个例子为一个集群自动定量。这个集群将从两个节点开始,最低。

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/create\——数据@create-cluster.json

create-cluster.json:

{“自动定量”:{“min_workers”:2,“max_workers”:8},“cluster_name”:“memoptimized-cluster-1”,“spark_version”:“7.5.x-scala2.12”,“spark_conf”:{},“gcp_attributes”:{“use_preemptible_executors”:},“node_type_id”:“n1-highmem-4”,“driver_node_type_id”:“n1-highmem-4”,“ssh_public_keys”:[],“custom_tags”:{},“spark_env_vars”:{“PYSPARK_PYTHON”:“砖/ python3 / bin / python3”},“autotermination_minutes”:120年,“enable_elastic_disk”:,“cluster_source”:“API”,“init_scripts”:[]}
{“cluster_id”:“1234 - 567890 zing123”}

创建一个新的集群,集群定义的属性new_cluster:

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/jobs/create\——数据@create-job.json

create-job.json:

{“run_name”:“我的任务”火花,“new_cluster”:{“spark_version”:“7.5.x-scala2.12”,“node_type_id”:“n1-highmem-4”,“num_workers”:10,“policy_id”:“ABCD000000000000”},“库”:({“罐子”:“dbfs: / my-jar.jar”},{“专家”:{“坐标”:“org.jsoup: jsoup: 1.7.2”}}),“spark_jar_task”:{“main_class_name”:“com.databricks.ComputeModels”}}

请求的集群结构定义

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

注意:当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域将立即被更新以反映目标大小为10的工人,而工人们中列出执行人将逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

cluster_name

字符串

集群名称要求的用户。这不必是惟一的。如果没有指定在创建,集群名称将是一个空字符串。

spark_version

字符串

集群的运行时版本。您可以检索通过使用可用的运行时版本的列表运行时版本API调用。这个字段是必需的。

spark_conf

SparkConfPair

一个对象包含一组可选的,指定的火花配置键-值对。还可以通过一系列额外的司机和执行人通过JVM选项spark.driver.extraJavaOptionsspark.executor.extraJavaOptions分别。火花参看示例:{“spark.speculation”:真的,“spark.streaming.ui.retainedBatches”:5}{“spark.driver.extraJavaOptions”:“- verbose: gc- xx: + PrintGCDetails "}

gcp_attributes

谷歌云属性

属性相关的集群上运行谷歌云。如果不指定在创建集群,一组使用默认值。

node_type_id

字符串

这一领域的编码,通过单个值,可用的资源的火花节点集群。例如,火花节点可以提供和优化内存或计算密集型工作负载可用节点类型的列表可以通过使用检索节点类型列表API调用。这个字段是必需的。

driver_node_type_id

字符串

火花的节点类型的司机。这个字段是可选的;如果设置,驱动节点类型将被设置为相同的值node_type_id上面的定义。

ssh_public_keys

一个数组的字符串

设置为空数组。不支持集群SSH。

custom_tags

ClusterTag

总是设置为空数组。

cluster_log_conf

ClusterLogConf

长期存储的配置提供火花日志目的地。只能指定一个目标为一个集群。如果配置,日志将被交付给每一个目的地5分钟。司机日志的目的地<目标> / < cluster-ID > /司机的目的地,而执行者日志<目标> / < cluster-ID > /执行器

init_scripts

一个数组的InitScriptInfo

存储的配置初始化脚本。可以指定任意数量的目的地。所提供的脚本的顺序执行。如果cluster_log_conf指定,init脚本日志发送到吗<目标> / < cluster-ID > / init_scripts

spark_env_vars

SparkEnvPair

一个对象包含一组可选的,键值指定的环境变量。键-值对的形式(X, Y)出口(也就是说,出口X = Y),而司机和工人。为了指定一个额外的组SPARK_DAEMON_JAVA_OPTS,我们建议追加SPARK_DAEMON_JAVA_OPTS美元如以下示例所示。这确保了所有默认砖管理包括环境变量。示例引发环境变量:{“SPARK_WORKER_MEMORY”:“28000米”,“SPARK_LOCAL_DIRS”:" / local_disk0 "}{“SPARK_DAEMON_JAVA_OPTS”:" $ SPARK_DAEMON_JAVA_OPTS-Dspark.shuffle.service.enabled = true "}

autotermination_minutes

INT32

后自动终止集群是不活跃的在几分钟内。如果没有设置,这个集群不会自动终止。如果指定,阈值必须10至10000分钟。你也可以将这个值设置为0来显式禁用自动终止。

enable_elastic_disk

BOOL

总是设置为false。

idempotency_token

字符串

一个可选的标记,可用于保证集群创建请求的幂等性。如果幂等性令牌被指定到一个集群,不在终止状态,请求并不创建一个新的集群而是返回现有集群的ID。否则,创建一个新的集群。幂等性标记清除集群时终止

如果你指定幂等性标记,当失败的时候你可以重试,直到请求成功。砖保证将推出一个集群,幂等性令牌。

这个令牌应该最多64个字符。

apply_policy_default_values

BOOL

是否使用政策失踪的集群属性的默认值。

响应结构

字段名

类型

描述

cluster_id

字符串

规范标识符的集群。

编辑

端点

HTTP方法

2.0 /集群/编辑

帖子

编辑一个集群的配置与所提供的属性和大小。

您可以编辑一个集群中运行终止状态。如果你编辑一个集群运行状态,它将重新启动,以便新属性可以生效。如果你编辑一个集群终止状态,它将保持终止。下次开始使用集群/启动API,新的属性将生效。试图编辑一个集群在任何其他国家将被拒绝INVALID_STATE错误代码。

集群由砖工作服务不能被编辑。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/edit\——数据@edit-cluster.json

edit-cluster.json:

{“cluster_id”:“1202 - 211320 brick1”,“num_workers”:10,“spark_version”:“7.3.x-scala2.12”,“node_type_id”:“n1-standard-4”}
{}

请求结构

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

注意:当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域将立即被更新以反映目标大小为10的工人,而工人们中列出执行人将逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

cluster_name

字符串

集群名称要求的用户。这不必是惟一的。如果没有指定在创建,集群名称将是一个空字符串。

spark_version

字符串

集群的运行时版本。您可以检索通过使用可用的运行时版本的列表运行时版本API调用。这个字段是必需的。

spark_conf

SparkConfPair

一个对象包含一组可选的,指定的火花配置键-值对。还可以通过一系列额外的司机和执行人通过JVM选项spark.driver.extraJavaOptionsspark.executor.extraJavaOptions分别。火花参看示例:{“spark.speculation”:真的,“spark.streaming.ui.retainedBatches”:5}{“spark.driver.extraJavaOptions”:“- verbose: gc- xx: + PrintGCDetails "}

gcp_attributes

谷歌云属性

属性相关的集群上运行谷歌云。如果不指定在创建集群,一组使用默认值。

node_type_id

字符串

这一领域的编码,通过单个值,可用的资源的火花节点集群。例如,火花节点可以提供和优化内存或计算密集型工作负载可用节点类型的列表可以通过使用检索节点类型列表API调用。这个字段是必需的。

driver_node_type_id

字符串

火花的节点类型的司机。这个字段是可选的;如果设置,驱动节点类型将被设置为相同的值node_type_id上面的定义。

cluster_log_conf

ClusterLogConf

长期存储的配置提供火花日志目的地。只能指定一个目标为一个集群。如果配置,日志将被交付给每一个目的地5分钟。司机日志的目的地<目标> / < cluster-ID > /司机的目的地,而执行者日志<目标> / < cluster-ID > /执行器

ssh_public_keys

一个数组的字符串

设置为空数组。不支持集群SSH。

custom_tags

ClusterTag

总是设置为空数组。

init_scripts

一个数组的InitScriptInfo

存储的配置初始化脚本。可以指定任意数量的目的地。所提供的脚本的顺序执行。如果cluster_log_conf指定,init脚本日志发送到吗<目标> / < cluster-ID > / init_scripts

spark_env_vars

SparkEnvPair

一个对象包含一组可选的,键值指定的环境变量。键-值对的形式(X, Y)出口(也就是说,出口X = Y),而司机和工人。为了指定一个额外的组SPARK_DAEMON_JAVA_OPTS,我们建议追加SPARK_DAEMON_JAVA_OPTS美元如以下示例所示。这确保了所有默认砖管理包括环境变量。示例引发环境变量:{“SPARK_WORKER_MEMORY”:“28000米”,“SPARK_LOCAL_DIRS”:" / local_disk0 "}{“SPARK_DAEMON_JAVA_OPTS”:" $ SPARK_DAEMON_JAVA_OPTS-Dspark.shuffle.service.enabled = true "}

autotermination_minutes

INT32

后自动终止集群是不活跃的在几分钟内。如果没有设置,这个集群不会自动终止。如果指定,阈值必须10至10000分钟。你也可以将这个值设置为0来显式禁用自动终止。

apply_policy_default_values

BOOL

是否使用政策失踪的集群属性的默认值。

开始

端点

HTTP方法

2.0 /集群/开始

帖子

开始终止集群鉴于其ID。这类似于createCluster,除了:

  • 终止集群ID和属性保存。

  • 集群从去年开始指定集群的大小。如果终止集群是一个自动定量集群,集群从最低的节点数量。

  • 如果集群中重新启动状态,一个400年返回错误。

  • 你不能开始一个集群启动运行工作。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/start\——数据”{cluster_id”:“1234 - 567890 reef123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

要启动集群。这个字段是必需的。

重新启动

端点

HTTP方法

2.0 /集群/重新启动

帖子

重新启动集群鉴于其ID。必须在集群运行状态。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/restart\——数据”{cluster_id”:“1234 - 567890 reef123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

要启动集群。这个字段是必需的。

调整

端点

HTTP方法

2.0 /集群/调整

帖子

调整一个集群所需的工人数量。必须在集群运行状态。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/resize\——数据”{cluster_id”:“1234 - 567890 reef123”、“num_workers”: 30}”
{}

请求结构

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

注意:当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域将立即被更新以反映目标大小为10的工人,而工人们中列出执行人将逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

cluster_id

字符串

集群的大小。这个字段是必需的。

删除(终止)

端点

HTTP方法

2.0 /集群/删除

帖子

终止一个集群鉴于其ID。异步删除集群。一旦终止已经完成,将在集群终止状态。如果已经在一个集群终止终止状态,什么也不会发生。

除非固定一个集群,集群终止后30天永久删除

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/delete\——数据”{cluster_id”:“1234 - 567890 frays123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

集群是终止。这个字段是必需的。

永久删除

端点

HTTP方法

2.0 /集群/ permanent-delete

帖子

永久删除一个集群。如果集群运行,它终止和异步删除资源。如果终止集群,然后立即删除。

您不能执行任何行动,包括检索集群的权限,一个永久删除集群。永久删除集群也不再返回在集群列表中。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/permanent-delete\——数据”{cluster_id”:“1234 - 567890 frays123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

集群是永久删除。这个字段是必需的。

得到

端点

HTTP方法

2.0 /集群

得到

检索一个集群的信息由于其标识符。集群可以在运行时被描述或终止后30天。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/get\——数据”{cluster_id”:“1234 - 567890 reef123“}”\|金桥。
{“cluster_id”:“1234 - 567890 reef123”,“司机”:{“node_aws_attributes”:{“is_spot”:},“private_ip”:“127.0.0.1”},“cluster_name”:“my-cluster”,“spark_version”:“8.1.x-scala2.12”,“node_type_id”:“n1-standard-4”,“driver_node_type_id”:“n1-standard-4”,“autotermination_minutes”:120年,“enable_elastic_disk”:,“disk_spec”:{},“cluster_source”:“API”,“enable_local_disk_encryption”:,“gcp_attributes”:{“use_preemptible_executors”:},“instance_source”:{“node_type_id”:“n1-standard-4”},“driver_instance_source”:{“node_type_id”:“n1-standard-4”},“状态”:“终止”,“state_message”:“不活动集群终止”,“start_time”:1619478205710,“terminated_time”:1619487451280,“last_state_loss_time”:1619478205710,“自动定量”:{“min_workers”:2,“max_workers”:8},“creator_user_name”:“someone@example.com”,“termination_reason”:{“代码”:“活动”,“参数”:{“inactivity_duration_min”:“120”},“类型”:“成功”},“init_scripts_safe_mode”:}

请求结构

字段名

类型

描述

cluster_id

字符串

集群的检索信息。这个字段是必需的。

响应结构

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

注意:当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域将立即被更新以反映目标大小为10的工人,而工人们中列出执行人将逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

cluster_id

字符串

规范标识符的集群。这个ID是保留在集群重启和尺寸,而每一个新的集群有一个全球唯一的ID。

creator_user_name

字符串

创造者用户名。现场不会包含在响应中如果用户已经删除。

司机

SparkNode

节点的火花司机驻留。司机节点包含火花大师和砖应用程序管理的每本引发repl。

执行人

一个数组的SparkNode

节点的火花执行人驻留。

spark_context_id

INT64

规范SparkContext标识符。这个值当火花驱动程序启动时改变。这一对(cluster_idspark_context_id)是一个全局唯一标识符在所有引发上下文。

jdbc_port

INT32

JDBC服务器监听端口的火花在司机节点。没有服务将监听这个端口执行器节点。

cluster_name

字符串

集群名称要求的用户。这不必是惟一的。如果没有指定在创建,集群名称将是一个空字符串。

spark_version

字符串

集群的运行时版本。您可以检索通过使用可用的运行时版本的列表运行时版本API调用。

spark_conf

SparkConfPair

一个对象包含一组可选的,指定的火花配置键-值对。还可以通过一系列额外的司机和执行人通过JVM选项spark.driver.extraJavaOptionsspark.executor.extraJavaOptions分别。

火花参看示例:{“spark.speculation”:真的,“spark.streaming.ui.retainedBatches”:5}{“spark.driver.extraJavaOptions”:“- verbose: gc- xx: + PrintGCDetails "}

gcp_attributes

谷歌云属性

属性相关的集群上运行谷歌云。如果没有指定在创建集群,将使用默认值。

node_type_id

字符串

这一领域的编码,通过单个值,可用的资源的火花节点集群。例如,火花节点可以提供和优化内存或计算密集型工作负载可用节点类型的列表可以通过使用检索节点类型列表API调用。这个字段是必需的。

driver_node_type_id

字符串

火花的节点类型的司机。这个字段是可选的;如果设置,驱动节点类型将被设置为相同的值node_type_id上面的定义。

custom_tags

ClusterTag

总是设置为空数组

cluster_log_conf

ClusterLogConf

长期存储的配置提供火花日志目的地。只能指定一个目标为一个集群。如果配置,日志将被交付给每一个目的地5分钟。司机日志的目的地<目标> / < cluster-ID > /司机的目的地,而执行者日志<目标> / < cluster-ID > /执行器

init_scripts

一个数组的InitScriptInfo

存储的配置初始化脚本。可以指定任意数量的目的地。所提供的脚本的顺序执行。如果cluster_log_conf指定,init脚本日志发送到该位置。

spark_env_vars

SparkEnvPair

一个对象包含一组可选的,键值指定的环境变量。键-值对的形式(X, Y)出口(也就是说,出口X = Y),而司机和工人。

为了指定一个额外的组SPARK_DAEMON_JAVA_OPTS,我们建议追加SPARK_DAEMON_JAVA_OPTS美元如以下示例所示。这确保了所有默认砖管理包括环境变量。

示例引发环境变量:{“SPARK_WORKER_MEMORY”:“28000米”,“SPARK_LOCAL_DIRS”:" / local_disk0 "}{“SPARK_DAEMON_JAVA_OPTS”:" $ SPARK_DAEMON_JAVA_OPTS-Dspark.shuffle.service.enabled = true "}

autotermination_minutes

INT32

后自动终止集群是不活跃的在几分钟内。如果没有设置,这个集群不会自动终止。如果指定,阈值必须10至10000分钟。你也可以将这个值设置为0来显式禁用自动终止。

instance_pool_id

字符串

总是空的。

cluster_source

ClusterSource

确定集群是由用户通过UI,砖的工作调度程序,通过一个API请求,或由三角洲住表运行时。示例值包括API,用户界面,或管道

状态

ClusterState

集群的状态。

state_message

字符串

与最近的状态转换相关联的消息(例如,集群进入的原因终止状态)。

start_time

INT64

时间(毫秒)时代当集群创建请求接收(当集群进入等待状态)。

terminated_time

INT64

时间(毫秒)时代集群时终止,如果适用的话。

last_state_loss_time

INT64

当集群司机去年失去了状态(由于重启或驱动程序失败)。

last_activity_time

INT64

时间(毫秒)时代当集群持续活跃。集群是活跃如果至少有一个命令在集群上还没有完成。这个领域是可用的集群已经达到运行状态。更新这个领域是由作为最优的尝试。某些版本的火花不支持集群活动的报告。指自动终止获取详细信息。

cluster_memory_mb

INT64

集群内存总量,以兆字节为单位。

cluster_cores

浮动

这个集群可用的CPU核数量。这可以部分由于某些节点类型配置为共享核心之间的火花节点相同的实例。

default_tags

ClusterTag

添加一个对象包含一组标记,由砖不管任何custom_tags,包括:

  • 供应商:砖

  • 创造者:< username-of-creator >

  • ClusterName: < name-of-cluster >

  • ClusterId: < id-of-cluster >

  • 名称:<砖内部使用>

    在工作的集群:

  • RunName: < name-of-job >

  • JobId: < id-of-job >

cluster_log_status

LogSyncStatus

集群日志发送状态。

termination_reason

TerminationReason

信息集群为什么终止。这个字段只出现在集群中终止终止状态。

请注意

你一定是一个砖管理员调用此API。

端点

HTTP方法

2.0 /集群/销

帖子

确保一个通用的集群配置保留即使集群已经终止了超过30天。将确保集群总是返回的列表API。寄一个集群,已经是固定的没有效果。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/pin\——数据”{cluster_id”:“1234 - 567890 reef123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

销的集群。这个字段是必需的。

拔掉

请注意

你一定是一个砖管理员调用此API。

端点

HTTP方法

2.0 /集群/拔掉

帖子

允许集群最终从返回的列表中删除列表API。拔掉一个集群,未被固定没有效果。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/unpin\——数据”{cluster_id”:“1234 - 567890 reef123“}”
{}

请求结构

字段名

类型

描述

cluster_id

字符串

集群拔掉。这个字段是必需的。

列表

端点

HTTP方法

2.0 /集群列表中

得到

返回所有固定信息集群,活跃集群,多达200的最近通用终止集群在过去的30天里,和最近的30终止集群工作在过去的30天。例如,如果有1固定集群,集群4活跃,45通用终止集群在过去的30天里,和50终止工作集群在过去30天,然后这个API返回1固定集群,集群4活跃,所有45通用终止集群,集群30最近终止工作。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/list\|金桥。
{“集群”:({“cluster_id”:“1234 - 567890 reef123”,“司机”:{“node_aws_attributes”:{“is_spot”:},“private_ip”:“127.0.0.1”},“cluster_name”:“my-cluster”,“spark_version”:“8.1.x-scala2.12”,“node_type_id”:“n1-standard-4”,“driver_node_type_id”:“n1-standard-4”,“autotermination_minutes”:120年,“enable_elastic_disk”:,“disk_spec”:{},“cluster_source”:“API”,“enable_local_disk_encryption”:,“gcp_attributes”:{“use_preemptible_executors”:},“instance_source”:{“node_type_id”:“n1-standard-4”},“driver_instance_source”:{“node_type_id”:“n1-standard-4”},“状态”:“终止”,“state_message”:“不活动集群终止”,“start_time”:1619478205710,“terminated_time”:1619487451280,“last_state_loss_time”:1619478205710,“自动定量”:{“min_workers”:2,“max_workers”:8},“creator_user_name”:“someone@example.com”,“termination_reason”:{“代码”:“活动”,“参数”:{“inactivity_duration_min”:“120”},“类型”:“成功”},“init_scripts_safe_mode”:},{“…”}]}

响应结构

字段名

类型

描述

集群

一个数组的ClusterInfo

一个集群列表。

节点类型列表

端点

HTTP方法

2.0 /集群/ list-node-types

得到

返回一个列表的支持引发节点类型。这些节点类型可用于启动一个集群。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/list-node-types\|金桥。
{“node_type”:({“node_type_id”:“n2d - highcpu - 224”,“memory_mb”:229376年,“num_cores”:224年,“描述”:“n2d - highcpu - 224”,“instance_type_id”:“n2d - highcpu - 224”,“类别”:“计算优化”,“support_ebs_volumes”:真正的,“support_cluster_tags”:真正的,“num_gpus”:0,“support_port_forwarding”:真正的,“display_order”:0,“is_io_cache_enabled”:},{“…”}]}

响应结构

字段名

类型

描述

node_type

一个数组的NodeType

可用火花节点类型的列表。

运行时版本

端点

HTTP方法

2.0 /集群/ spark-versions

得到

返回的列表可用运行时版本。这些版本可用于启动一个集群。

例子

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/spark-versions\|金桥。
{“版本”:({“关键”:“8.2.x-scala2.12”,“名称”:“8.2(包括Apache火花3.1.1,Scala 2.12)”},{“…”}]}

响应结构

字段名

类型

描述

版本

一个数组的SparkVersion

所有可用的运行时版本。

事件

端点

HTTP方法

2.0 /集群/事件

帖子

检索事件列表的活动集群。您可以检索事件从活跃集群(跑步、等待、或重新配置)和终止集群的30天内终止。这个API是分页的。如果有更多的阅读活动,包括所有必要的参数来请求的响应下一个页面的事件。

例子:

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/events\——数据@list-events.json\|金桥。

list-events.json:

{“cluster_id”:“1234 - 567890 reef123”,“start_time”:1617238800000,“end_time”:1619485200000,“秩序”:“DESC”,“抵消”:5,“限制”:5,“event_types”:(“运行”]}
{“事件”:({“cluster_id”:“1234 - 567890 reef123”,“时间戳”:1619471498409,“类型”:“运行”,“细节”:{“current_num_workers”:2,“target_num_workers”:2}},{“…”}),“next_page”:{“cluster_id”:“1234 - 567890 reef123”,“start_time”:1617238800000,“end_time”:1619485200000,“秩序”:“DESC”,“抵消”:10,“限制”:5},“total_count”:25}

示例请求来检索下一个页面的事件:

curl——netrc - x\https://1234567890123456.7.gcp.www.neidfyre.com/api/2.0/clusters/events\——数据@list-events.json\|金桥。

list-events.json:

{“cluster_id”:“1234 - 567890 reef123”,“start_time”:1617238800000,“end_time”:1619485200000,“秩序”:“DESC”,“抵消”:10,“限制”:5,“event_types”:(“运行”]}
{“事件”:({“cluster_id”:“1234 - 567890 reef123”,“时间戳”:1618330776302,“类型”:“运行”,“细节”:{“current_num_workers”:2,“target_num_workers”:2}},{“…”}),“next_page”:{“cluster_id”:“1234 - 567890 reef123”,“start_time”:1617238800000,“end_time”:1619485200000,“秩序”:“DESC”,“抵消”:15,“限制”:5},“total_count”:25}

请求结构

检索事件属于一个特定的集群。

字段名

类型

描述

cluster_id

字符串

集群的ID来检索事件有关。这个字段是必需的。

start_time

INT64

时代的开始时间毫秒。如果为空,返回事件从一开始的时间。

end_time

INT64

时代的结束时间毫秒。如果为空,返回到当前时间的事件。

订单

ListOrder

订单列表事件;要么ASCDESC。默认为DESC

event_types

一个数组的ClusterEventType

一个可选的事件类型过滤。如果为空,返回所有事件类型。

抵消

INT64

结果集的抵消。默认值为0(无抵消)。当指定一个偏移量和结果要求在降序排列,end_time字段是必需的。

限制

INT64

事件在一个页面的最大数量的事件。默认值为50,和最大允许的值为500。

响应结构

字段名

类型

描述

事件

一个数组的ClusterEvent

这个匹配的事件列表。

next_page

请求结构

所需的参数获取下一个页面的事件。省略了如果没有其他事件来读。

total_count

INT64

事件的总数start_time过滤,end_time, event_types。

数据结构

自动定量

集群范围定义的最小和最大数量的工人。

字段名

类型

描述

min_workers

INT32

工人的最低数量的集群可以缩小时没有得到充分的利用。这也是最初的工人数量集群创建后。

max_workers

INT32

工人的最大数量的集群可以扩大当超载。必须严格大于min_workers max_workers。

ClusterInfo

关于集群元数据。

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

注意:当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域将立即被更新以反映目标大小为10的工人,而工人们中列出执行人将逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

cluster_id

字符串

规范标识符的集群。这个ID是保留在集群重启和尺寸,而每一个新的集群有一个全球唯一的ID。

creator_user_name

字符串

创造者用户名。现场不会包含在响应中如果用户已经删除。

司机

SparkNode

节点的火花司机驻留。司机节点包含火花大师和砖应用程序管理的每本引发repl。

执行人

一个数组的SparkNode

节点的火花执行人驻留。

spark_context_id

INT64

规范SparkContext标识符。这个值当火花驱动程序启动时改变。这一对(cluster_idspark_context_id)是一个全局唯一标识符在所有引发上下文。

jdbc_port

INT32

JDBC服务器监听端口的火花在司机节点。没有服务将监听这个端口执行器节点。

cluster_name

字符串

集群名称要求的用户。这不必是惟一的。如果没有指定在创建,集群名称将是一个空字符串。

spark_version

字符串

集群的运行时版本。您可以检索通过使用可用的运行时版本的列表运行时版本API调用。

spark_conf

SparkConfPair

一个对象包含一组可选的,指定的火花配置键-值对。还可以通过一系列额外的司机和执行人通过JVM选项spark.driver.extraJavaOptionsspark.executor.extraJavaOptions分别。

火花参看示例:{“spark.speculation”:真的,“spark.streaming.ui.retainedBatches”:5}{“spark.driver.extraJavaOptions”:“- verbose: gc- xx: + PrintGCDetails "}

gcp_attributes

谷歌云属性

属性相关的集群上运行谷歌云。

node_type_id

字符串

这一领域的编码,通过单个值,可用的资源的火花节点集群。例如,火花节点可以提供和优化内存或计算密集型工作负载。可用节点类型的列表可以通过使用检索节点类型列表API调用。

driver_node_type_id

字符串

火花的节点类型的司机。这个字段是可选的;如果设置,驱动节点类型将被设置为相同的值node_type_id上面的定义。

ssh_public_keys

一个数组的字符串

设置为空数组。不支持集群SSH。

custom_tags

一个数组的ClusterTag

总是设置为空数组。

cluster_log_conf

ClusterLogConf

长期存储的配置提供火花日志目的地。只能指定一个目标为一个集群。如果配置,日志将被交付给每一个目的地5分钟。司机日志的目的地<目标> / < cluster-ID > /司机的目的地,而执行者日志<目标> / < cluster-ID > /执行器

init_scripts

一个数组的InitScriptInfo

存储的配置初始化脚本。可以指定任意数量的目的地。所提供的脚本的顺序执行。如果指定cluster_log_conf, init脚本日志发送到<目标> / < cluster-ID > / init_scripts

spark_env_vars

SparkEnvPair

一个对象包含一组可选的,键值指定的环境变量。键-值对的形式(X, Y)出口(也就是说,出口X = Y),而司机和工人。

指定一组额外的SPARK_DAEMON_JAVA_OPTS,我们建议追加SPARK_DAEMON_JAVA_OPTS美元如以下示例所示。这确保了所有默认砖管理包括环境变量。

示例引发环境变量:{“SPARK_WORKER_MEMORY”:“28000米”,“SPARK_LOCAL_DIRS”:" / local_disk0 "}{“SPARK_DAEMON_JAVA_OPTS”:" $ SPARK_DAEMON_JAVA_OPTS-Dspark.shuffle.service.enabled = true "}

autotermination_minutes

INT32

后自动终止集群是不活跃的在几分钟内。如果没有设置,这个集群不会自动终止。如果指定,阈值必须10至10000分钟。你也可以将这个值设置为0来显式禁用自动终止。

instance_pool_id

字符串

可选的ID集群所属实例池。指获取详细信息。

cluster_source

ClusterSource

确定集群是由用户通过UI,砖的工作调度程序,通过一个API请求,或由三角洲住表运行时。示例值包括API,用户界面,或管道

状态

ClusterState

集群的状态。

state_message

字符串

与最近的状态转换相关联的消息(例如,集群进入的原因终止状态)。这个字段是结构化的,它的确切格式是可能发生变化。

start_time

INT64

时间(毫秒)时代当集群创建请求接收(当集群进入等待状态)。

terminated_time

INT64

时间(毫秒)时代集群时终止,如果适用的话。

last_state_loss_time

INT64

当集群司机去年失去了状态(由于重启或驱动程序失败)。

last_activity_time

INT64

时间(毫秒)时代当集群持续活跃。集群是活跃如果至少有一个命令在集群上还没有完成。这个领域是可用的集群后已经达到了运行状态。更新这个领域是由作为最优的尝试。某些版本的火花不支持集群活动的报告。指自动终止获取详细信息。

cluster_memory_mb

INT64

集群内存总量,以兆字节为单位。

cluster_cores

浮动

这个集群可用的CPU核数量。这可以部分由于某些节点类型配置为共享核心之间的火花节点相同的实例。

default_tags

ClusterTag

添加一个对象包含一组标记,由砖不管任何custom_tags,包括:

  • 供应商:砖

  • 创造者:< username-of-creator >

  • ClusterName: < name-of-cluster >

  • ClusterId: < id-of-cluster >

  • 名称:<砖内部使用>

    在工作的集群:

  • RunName: < name-of-job >

  • JobId: < id-of-job >

cluster_log_status

LogSyncStatus

集群日志发送状态。

termination_reason

TerminationReason

信息集群为什么终止。这个字段只出现在集群中终止终止状态。

ClusterEvent

集群事件信息。

字段名

类型

描述

cluster_id

字符串

规范标识符的集群。这个字段是必需的。

时间戳

INT64

事件发生时的时间戳,存储为unix纪元以来的毫秒数。交办时间轴服务。

类型

ClusterEventType

事件类型。这个字段是必需的。

细节

EventDetails

事件的细节。这个字段是必需的。

ClusterEventType

集群事件的类型。

事件类型

描述

创建

表明,集群被创造出来。

DID_NOT_EXPAND_DISK

表明一个磁盘空间低,但添加磁盘将在最大容量。

EXPANDED_DISK

表明一个磁盘空间不足,磁盘扩展。

FAILED_TO_EXPAND_DISK

表明一个磁盘空间和磁盘空间不足无法扩大。

INIT_SCRIPTS_STARTING

表明,集群范围的init脚本已经开始。

INIT_SCRIPTS_FINISHED

表明,集群范围的init脚本完成。

开始

表明,集群正在开始。

重新启动

表明,集群正在开始。

终止

表明,集群被终止。

编辑

表明,集群已被编辑。

运行

显示集群创建完成。包括集群中的节点的数量和故障原因如果某些节点不能被收购。

调整

显示集群的目标大小的变化走势(多或缩小)。

UPSIZE_COMPLETED

表明节点完成被添加到集群中。包括集群中的节点的数量和故障原因如果某些节点不能被收购。

NODES_LOST

表明,某些节点的集群。

DRIVER_HEALTHY

表明,司机是健康和集群准备使用。

DRIVER_UNAVAILABLE

表明司机不可用。

SPARK_EXCEPTION

表明火花异常被抛出的司机。

DRIVER_NOT_RESPONDING

表明司机,但没有反应,可能由于GC。

DBFS_DOWN

表明司机但DBFS下来。

METASTORE_DOWN

表明司机但metastore下来。

NODE_BLACKLISTED

表明一个节点由火花是不允许的。

固定

表明,集群是固定的。

拔掉

表明,集群被拔掉。

EventDetails

集群事件的详细信息。

字段名

类型

描述

current_num_workers

INT32

集群中的节点的数量。

target_num_workers

INT32

目标集群中的节点数量。

previous_attributes

谷歌云属性

集群的集群之前编辑属性。

属性

谷歌云属性

  • 创建集群,集群的属性。

  • 对于编辑的集群,集群的新属性。

previous_cluster_size

ClusterSize

集群的规模前编辑或调整。

cluster_size

ClusterSize

的集群大小设置集群中创建或编辑。

导致

ResizeCause

目标大小的变化的原因。

原因

TerminationReason

终止原因:

  • 在一个终止事件,终止的原因。

  • 在一个RESIZE_COMPLETE事件,说明原因,我们未能获得一些节点。

用户

字符串

用户,导致事件发生。(空,如果它是由砖)。

谷歌云属性

属性设置集群创建期间有关谷歌云。

重要的

使用与GCS和BigQuery谷歌服务帐户,你使用访问数据源必须位于同一个项目时指定的SA建立你的砖账户。

ClusterAttributes

在创建集群组公共的属性集。不能改变这些属性在集群的生命周期。

字段名

类型

描述

cluster_name

字符串

集群名称要求的用户。这不必是惟一的。如果没有指定在创建,集群名称将是一个空字符串。

spark_version

字符串

集群的运行时版本,例如“5.0.x-scala2.11”。您可以检索通过使用可用的运行时版本的列表运行时版本API调用。

spark_conf

SparkConfPair

一个对象包含一组可选的,指定的火花配置键-值对。还可以通过一系列额外的司机和执行人通过JVM选项spark.driver.extraJavaOptionsspark.executor.extraJavaOptions分别。

火花参看示例:{“spark.speculation”:真的,“spark.streaming.ui.retainedBatches”:5}{“spark.driver.extraJavaOptions”:“- verbose: gc- xx: + PrintGCDetails "}

gcp_attributes

谷歌云属性

属性相关的集群上运行谷歌云。如果没有指定在创建集群,将使用默认值。

node_type_id

字符串

这一领域的编码,通过单个值,可用的资源的火花节点集群。例如,火花节点可以提供和优化内存或计算密集型工作负载可用节点类型的列表可以通过使用检索节点类型列表API调用。

driver_node_type_id

字符串

火花的节点类型的司机。这个字段是可选的;如果设置,驱动节点类型将被设置为相同的值node_type_id上面的定义。

ssh_public_keys

一个数组的字符串

设置为空数组。不支持集群SSH。

custom_tags

ClusterTag

一个对象包含对集群资源的一组标记。砖标签的所有集群资源除了default_tags与这些标签。

请注意:

  • 标签上不支持遗留节点类型compute-optimized和memory-optimized等。

  • 砖允许最多45定制标记。

cluster_log_conf

ClusterLogConf

长期存储的配置提供火花日志目的地。只能指定一个目标为一个集群。如果配置,日志将被交付给每一个目的地5分钟。司机日志的目的地<目标> / < cluster-ID > /司机的目的地,而执行者日志<目标> / < cluster-ID > /执行器

init_scripts

一个数组的InitScriptInfo

存储的配置初始化脚本。可以指定任意数量的目的地。所提供的脚本的顺序执行。如果cluster_log_conf指定,init脚本日志发送到吗<目标> / < cluster-ID > / init_scripts

spark_env_vars

SparkEnvPair

一个对象包含一组可选的,键值指定的环境变量。键-值对的形式(X, Y)出口(也就是说,出口X = Y),而司机和工人。

为了指定一个额外的组SPARK_DAEMON_JAVA_OPTS,我们建议追加SPARK_DAEMON_JAVA_OPTS美元如以下示例所示。这确保了所有默认砖管理包括环境变量。

示例引发环境变量:{“SPARK_WORKER_MEMORY”:“28000米”,“SPARK_LOCAL_DIRS”:" / local_disk0 "}{“SPARK_DAEMON_JAVA_OPTS”:" $ SPARK_DAEMON_JAVA_OPTS-Dspark.shuffle.service.enabled = true "}

autotermination_minutes

INT32

后自动终止集群是不活跃的在几分钟内。如果没有设置,这个集群不会自动终止。如果指定,阈值必须10至10000分钟。你也可以将这个值设置为0来显式禁用自动终止。

instance_pool_id

字符串

可选的ID集群所属实例池。指获取详细信息。

cluster_source

ClusterSource

确定集群是由用户通过UI,砖的工作调度程序,通过一个API请求,或由三角洲住表运行时。示例值包括API,用户界面,或管道

policy_id

字符串

一个集群政策ID。

ClusterSize

集群大小规格。

字段名

类型

描述

num_workers或自动定量

INT32自动定量

如果num_workers,工人数量节点集群应该。一个集群有一个火花司机和num_workers执行人总共num_workers + 1火花节点。

当阅读一个集群的属性,这一领域的反映所需的工人数量,而不是工人的实际数量。例如,如果一个集群的大小从5到10的工人,这一领域被更新以反映目标大小为10的工人,而执行者中列出的工人逐渐增加从5到10新节点配置。

如果自动定量,参数需要为了根据负载自动上下集群规模。

ListOrder

通用排序enum基于列表的查询。

订单

描述

DESC

降序排列。

ASC

升序排序。

ResizeCause

为什么一个集群的大小。

导致

描述

自动定量

基于负载自动调整大小。

USER_REQUEST

用户请求一个新的大小。

AUTORECOVERY

Autorecovery监控调整后的集群节点。

ClusterLogConf

集群日志路径。

字段名

类型

描述

DbfsStorageInfo

DBFS集群日志的位置。必须提供目的地。例如,{“dbfs”:{“目的地”:“dbfs: / home / cluster_log”}}

InitScriptInfo

一个init脚本。对使用init脚本指令砖容器服务,请参阅_

请注意

文件存储类型只能为集群设置使用砖容器服务

字段名

类型

描述

DbfsStorageInfo

FileStorageInfo

DBFS init脚本的位置。必须提供目的地。例如,{“dbfs”:{“目的地”:“dbfs: / home / init_script”}}

init脚本的文件位置。必须提供目的地。例如,{“文件”:{“目的地”:“文件:/我的/地方/ file.sh”}}

ClusterTag

集群标签定义。

DbfsStorageInfo

DBFS存储信息。

字段名

类型

描述

目的地

字符串

DBFS目的地。例子:dbfs: /我/路径

FileStorageInfo

文件存储信息。

请注意

这个位置类型只能为集群设置使用砖容器服务

字段名

类型

描述

目的地

字符串

文件的目的地。例子:文件:/我/ file.sh

DockerImage

码头工人形象连接信息。

类型

描述

url

字符串

URL的码头工人的形象。

basic_auth

DockerBasicAuth

码头工人的基本身份验证信息存储库。

DockerBasicAuth

码头工人库基本身份验证信息。

描述

用户名

用户名码头工人存储库。

密码

码头工人的密码库。

LogSyncStatus

日志发送状态。

字段名

类型

描述

last_attempted

INT64

时间戳的最后尝试。如果最后一次尝试失败,last_exception包含异常在过去的尝试。

last_exception

字符串

除了扔过去,这将是零(响应中省略了)如果在去年尝试也不例外。

NodeType

火花的描述节点类型包括节点的尺寸和实例类型,它将被托管。

字段名

类型

描述

node_type_id

字符串

这个节点类型的惟一标识符。这个字段是必需的。

memory_mb

INT32

这个节点类型的可用内存(MB)。这个字段是必需的。

num_cores

浮动

可用的CPU核数量这个节点类型。这可以部分如果核的数量在一个机实例不整除的火花节点数量的机器。这个字段是必需的。

描述

字符串

一个字符串描述与该节点类型相关联。这个字段是必需的。

instance_type_id

字符串

一个标识符类型的硬件节点上运行。这个字段是必需的。

is_deprecated

BOOL

节点类型是否弃用。Non-deprecated节点类型提供更高的性能。

node_info

ClusterCloudProviderNodeInfo

节点类型信息报告的云提供商。

ClusterCloudProviderNodeInfo

一个云提供商提供的实例的信息。

字段名

类型

描述

状态

ClusterCloudProviderNodeStatus

据云提供商的地位。

available_core_quota

INT32

可用的CPU核心配额。

total_core_quota

INT32

总CPU核心配额。

ClusterCloudProviderNodeStatus

一个云提供商提供的实例的状态。

状态

描述

NotEnabledOnSubscription

节点类型不能用于订阅。

NotAvailableInRegion

节点类型在地区。

ParameterPair

参数,提供了额外的信息集群为什么终止。

类型

描述

TerminationParameter

类型的终止信息。

字符串

终止信息。

SparkConfPair

火花配置键-值对。

类型

描述

字符串

配置属性的名称。

字符串

配置属性值。

SparkEnvPair

引发环境变量键-值对。

重要的

当指定环境变量的工作集群,这个数据结构只接受拉丁字符的字段(ASCII字符集)。使用非ascii字符将返回一个错误。无效的例子,非ascii字符是中国人,日本汉字,emojis。

类型

描述

字符串

一个环境变量的名字。

字符串

环境变量的值。

SparkNode

火花司机或执行器配置。

SparkVersion

砖的运行时版本的集群。

字段名

类型

描述

关键

字符串

砖的运行时版本的键,例如7.3.x-scala2.12。应提供的价值spark_version当创建一个新的集群。的运行时版本可能随时间变化“通配符”版本(也就是说,7.3.x-scala2.12是一个“通配符”与小bug修复版本)。

的名字

字符串

运行时版本的一个描述性的名称,例如“砖运行时的7.3 LTS”。

TerminationReason

为什么一个集群是终止。

字段名

类型

描述

代码

TerminationCode

状态码表示集群为什么终止。

类型

TerminationType

理由说明为什么一个集群是终止。

参数

ParameterPair

对象包含一组参数,提供信息集群为什么终止。

PoolClusterTerminationCode

状态码表示集群为什么终止由于池失败。

代码

描述

INSTANCE_POOL_MAX_CAPACITY_FAILURE

池的最大容量。

INSTANCE_POOL_NOT_FOUND_FAILURE

指定的池集群不再是活动或不存在。

ClusterSource

服务,创建集群。

服务

描述

用户界面

集群通过UI。

工作

集群由砖作业调度器。

API

通过一个API调用创建集群。

ClusterState

一个集群的状态。允许的状态转换如下:

  • 等待- >运行

  • 等待- >终止

  • 运行- >调整

  • 运行- >重新启动

  • 运行- >终止

  • 重新启动- >运行

  • 重新启动- >终止

  • 调整- >运行

  • 调整- >终止

  • 终止- >终止

状态

描述

等待

表明一个集群的过程中被创建。

运行

表明一个集群已经启动并准备使用。

重新启动

表明一个集群的过程中重新启动。

调整

表明一个集群的过程中添加或删除节点。

终止

表明一个集群的过程中被摧毁。

终止

表明,集群已成功摧毁。

错误

这个状态已经不再使用。是用来表示一个集群创建失败。终止终止而不是使用。

未知的

表明集群处于未知状态。一个集群不应该在这个状态。

TerminationCode

状态码表示集群为什么终止。

TerminationType

集群的原因被终止。

类型

描述

成功

终止成功了。

CLIENT_ERROR

Non-retriable。客户之前必须解决参数再尝试创建集群。

SERVICE_FAULT

砖服务的问题。客户端可以重试。

CLOUD_FAILURE

云提供商的基础设施问题。客户可以在底层的问题得到解决后重试。

TerminationParameter

关键这提供了额外的信息为什么集群是终止。

GcpAvailability

GCP实例可用性行为类型。

类型

描述

PREEMPTIBLE_GCP

使用抢占的实例。抢占式实例比按需实例便宜但可能被GKE先发制人。

ON_DEMAND_GCP

使用随需应变的实例。

PREEMPTIBLE_WITH_FALLBACK_GCP

最好是使用抢占的实例,但回落到按需实例如果无法获得抢占的实例(例如,如果没有其他地区抢占的实例)。