数据库中的错误条件

这是Databricks返回的常见错误条件的列表。

Databricks运行时和Databricks SQL

AMBIGUOUS_COLUMN_OR_FIELD

列或字段是不明确的,并且有匹配。

AMBIGUOUS_CONSTRAINT

对constraint 的模糊引用。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

横向列别名是不明确的,并且有匹配。

AMBIGUOUS_REFERENCE

引用是不明确的,可以是:

ARGUMENT_NOT_CONSTANT

函数包含一个参数 at position ,需要一个常量实参。请单独计算参数,并将结果作为常量传递。

ARITHMETIC_OVERFLOW

<消息>。<选择>如有必要,将设置为“false”以绕过此错误。

BUILT_IN_CATALOG

<操作>不支持内置目录。

CANNOT_CAST_DATATYPE

不能将转换为

CANNOT_CONSTRUCT_PROTOBUF_DESCRIPTOR

构造文件描述符错误

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

无法将Protobuf 转换为SQL ,因为模式不兼容(protobufType = , sqlType = )。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

无法将Protobuf的转换为SQL类型

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_ENUM_TYPE

不能将SQL 转换为Protobuf ,因为不能写入,因为它没有在ENUM 中定义

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

无法将SQL 转换为Protobuf ,因为模式不兼容(protobufType = , sqlType = )。

CANNOT_COPY_STATE

不能复制目录状态,如当前数据库和临时视图从统一目录到遗留目录。

CANNOT_DECODE_URL

无法解码url:

CANNOT_DELETE_SYSTEM_OWNED

System owned 不能删除。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

不能删除由CHECK约束共享的名称为的约束

和一个主键或外键约束。您可以删除主键或

查询的外键约束:

修改表..删除主键或

修改表..删除外键..

CANNOT_LOAD_FUNCTION_CLASS

当注册函数时,无法加载类,请确保它在类路径上。

CANNOT_LOAD_PROTOBUF_CLASS

无法加载名称的Protobuf类。确保类名包含包前缀。

CANNOT_PARSE_DECIMAL

无法解析十进制

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

解析文件描述符字节[]为描述符对象错误

CANNOT_PARSE_TIMESTAMP

<消息>。如有必要,将设置为“false”以绕过此错误。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

无法从安全提供程序读取敏感密钥“

CANNOT_REFERENCE_UC_IN_HMS

不能在Hive Metastore对象中引用的Unity Catalog。

CANNOT_RENAME_ACROSS_CATALOG

不允许跨目录重命名表。

CANNOT_RENAME_ACROSS_METASTORE

不允许跨metastore服务重命名表。

CANNOT_RENAME_ACROSS_SCHEMA

不允许跨模式重命名表。

CANNOT_UP_CAST_DATATYPE

不能将<表达式>从上转换为

<详细>

CAST_INVALID_INPUT

类型为的值<表达式>不能强制转换为,因为它是畸形的。根据语法纠正值,或更改其目标类型。使用try_cast来容忍错误的输入并返回NULL。如有必要,将设置为“false”以绕过此错误。

CAST_OVERFLOW

类型的值<值>由于溢出不能强制转换为。使用try_cast来容忍溢出并返回NULL。如有必要,将设置为“false”以绕过此错误。

CAST_OVERFLOW_IN_TABLE_INSERT

类型列中插入类型的值失败,原因是溢出。使用try_cast,以允许溢出并返回NULL。

COLUMN_ALREADY_EXISTS

已经存在。考虑选择其他名称或重命名现有列。

COLUMN_NOT_FOUND

无法找到列。根据SQL config 验证列名的拼写和正确性。

CONCURRENT_QUERY

此查询的另一个实例刚刚由并发会话启动。

连接

一般Spark Connect错误。

有关详细信息,请参阅连接

CONSTRAINTS_REQUIRE_UNITY_CATALOG

表约束只支持在Unity目录。

CONVERSION_INVALID_INPUT

()不能转换为,因为它是畸形的。根据语法纠正值,或更改其格式。使用来容忍错误的输入并返回NULL。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

无效的方案<方案>。COPY INTO源加密目前只支持s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

COPY INTO源凭证必须指定

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

在并发COPY INTO操作中提交了复制的文件。请稍后再试。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

无效的方案<方案>。COPY INTO源加密目前只支持s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

COPY INTO加密只支持ADLS Gen2,或abfss://文件方案

COPY_INTO_ENCRYPTION_REQUIRED

COPY INTO源加密必须指定' '。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

无效的加密选项。COPY INTO源加密必须指定' ' = ' '。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

除了追加数据之外,COPY INTO不允许与其他事务并发运行。请稍后再试。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

COPY INTO未能加载其状态,超过了最大重试次数。

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

源文件格式必须为CSV、JSON、AVRO、ORC、PARQUET、TEXT或BINARYFILE。不支持在Delta表上使用COPY INTO作为源,因为在OPTIMIZE操作之后可能会摄入重复数据。可以通过运行SQL命令关闭此检查spark.databricks.delta.copyInto.formatCheck.enabled

CREATE_TABLE_COLUMN_OPTION_DUPLICATE

CREATE TABLE column 多次指定选项“”,无效

DATABRICKS_DELTA_NOT_ENABLED

Databricks Delta在您的帐户中未启用

DATATYPE_MISMATCH

由于数据类型不匹配,无法解析:

有关详细信息,请参阅DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

DataType 需要一个长度参数,例如(10)。请注明长度。

DATETIME_OVERFLOW

Datetime操作溢出:<操作>。

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

十进制精度<精度>超过最大精度

DEFAULT_DATABASE_NOT_EXISTS

默认数据库不存在,请先创建它或将默认数据库更改为' Default '。

DIVIDE_BY_ZERO

除以0。使用try_divide允许除数为0而返回NULL。如有必要,将设置为“false”以绕过此错误。

DUPLICATE_KEY

发现重复的键

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

function 的调用包含多个赋值给parameter 的参数。每个形参最多只能赋一个实参。

ELEMENT_AT_BY_INDEX_ZERO

索引0无效。索引值必须为< 0或> 0(第一个元素的索引值为1)。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

在分段<操作>查询中空本地文件

ENCODER_NOT_FOUND

未找到用于Spark SQL内部表示的类型的编码器。考虑将输入类型更改为at支持的类型之一数据类型

EXCEPT_NESTED_COLUMN_INVALID_TYPE

EXCEPT column 被解析并期望为StructType,但发现type

EXCEPT_OVERLAPPING_COLUMNS

EXCEPT列表中的列必须是不同的且不重叠的。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

EXCEPT列[]已被解析,但与星型展开中的任何列[]不匹配。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

EXCEPT子句中的列/字段名无法解析。你的意思是以下之一:[]?

注意:EXCEPT子句中的嵌套列在结构展开过程中可能不包括限定符(表名、父结构列名等);如果限定符与嵌套列一起使用,请尝试删除它们。

EXT_TABLE_INVALID_SCHEME

外部表不支持方案。

FAILED_EXECUTE_UDF

日志含义执行用户定义函数失败(:() => )

FAILED_FUNCTION_CALL

函数的调用准备失败。请仔细检查函数的参数。

FAILED_RENAME_PATH

由于目的地已经存在,将重命名为失败

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

Classic SQL仓库不支持。要使用此特性,请使用Pro或无服务器SQL仓库。要了解BOB低频彩更多关于仓库类型的信息,请参见

FEATURE_REQUIRES_UC

不支持没有统一目录。要使用此功能,请启用Unity Catalog。要了解BOB低频彩更多关于Unity Catalog的信息,请参见

FEATURE_UNAVAILABLE

在您的环境中不支持。要使用此功能,请联系Databricks支持。

FIELD_NOT_FOUND

中没有这样的结构字段

FILE_IN_STAGING_PATH_ALREADY_EXISTS

暂存路径中的文件已存在,但未设置OVERWRITE

FORBIDDEN_OPERATION

: 不允许执行<语句>

FOREIGN_KEY_MISMATCH

外键父列与主键子列不匹配。

GRAPHITE_SINK_INVALID_PROTOCOL

无效的石墨协议:<协议>

GRAPHITE_SINK_PROPERTY_MISSING

石墨水槽需要' '属性。

GROUPING_COLUMN_MISMATCH

在分组列中找不到分组列()

GROUPING_ID_COLUMN_MISMATCH

grouping_id的列()与分组列()不匹配

GROUPING_SIZE_LIMIT_EXCEEDED

分组集大小不能大于

GROUP_BY_AGGREGATE

GROUP BY中不允许聚合函数,但发现

GROUP_BY_POS_AGGREGATE

GROUP BY 表示包含聚合函数的表达式。在GROUP BY中不允许聚合函数。

GROUP_BY_POS_OUT_OF_RANGE

GROUP BY position 不在select list中(有效范围是[1,])。

INCOMPARABLE_PIVOT_COLUMN

无效的主列。主列必须具有可比性。

INCOMPATIBLE_DATASOURCE_REGISTER

检测到不兼容的DataSourceRegister。请从类路径中删除不兼容的库或将其升级。错误:<消息>

INCONSISTENT_BEHAVIOR_CROSS_VERSION

由于升级到,您可能会得到不同的结果

有关详细信息,请参阅INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_END_OFFSET

最大偏移量 rowsPerSecond是,但是现在是

INCORRECT_NUMBER_OF_ARGUMENTS

至少需要参数,最多参数。

INCORRECT_RAMP_UP_RATE

最大偏移量 rowsPerSecond是,但是' rampuptimesseconds '是< rampuptimesseconds >。

INDEX_ALREADY_EXISTS

无法创建索引,因为索引已经存在。<消息>。

INDEX_NOT_FOUND

找不到索引。<消息>。

INSUFFICIENT_PERMISSIONS

足够的特权:

<报告>

INSUFFICIENT_PERMISSIONS_EXT_LOC

用户<用户>对于外部位置权限不足。

INSUFFICIENT_PERMISSIONS_NO_OWNER

没有所有者。请管理员设置所有者。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

用户不拥有

INSUFFICIENT_PERMISSIONS_SECURABLE

用户没有的权限。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

的所有者与的所有者不同。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

存储凭证权限不足。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

用户不能在上执行,因为对底层安全对象有权限。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

用户不能在上执行,因为对底层安全对象有权限:

< underlyingReport >

INTERNAL_ERROR

<消息>

INTERVAL_ARITHMETIC_OVERFLOW

<消息>。<选择>

INTERVAL_DIVIDED_BY_ZERO

除以0。使用try_divide允许除数为0而返回NULL。

INVALID_AGGREGATE_FUNCTION_USAGE_IN_SQL_FUNCTION

SQL函数中无效的聚合函数使用:

INVALID_ARRAY_INDEX

索引越界。数组有个元素。使用SQL函数get ()允许访问无效索引的元素并返回NULL。如有必要,将设置为“false”以绕过此错误。

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

索引越界。数组有个元素。使用try_element_at允许访问无效索引的元素并返回NULL。如有必要,将设置为“false”以绕过此错误。

INVALID_BUCKET_FILE

无效的桶文件:

INVALID_BYTE_STRING

期望的格式是ByteString,但是<不支持>(<类>)。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

列或字段的类型是,而它必须是

INVALID_DEST_CATALOG

SYNC命令的目标目录必须在Unity目录中。找到<目录>。

INVALID_EMPTY_LOCATION

位置名称不能为空字符串,但是\ \ > <位置给出了。

INVALID_EXTRACT_FIELD

不能从中提取<字段>。

INVALID_FIELD_NAME

字段名无效:不是struct。

INVALID_FORMAT

格式无效:

有关详细信息,请参阅INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

sec的分数必须为零。有效范围为[0,60]。如有必要,将设置为“false”以绕过此错误。

INVALID_IDENTIFIER

标识符无效。请考虑用反引号来引用\ <鉴别\ >

INVALID_JSON_SCHEMA_MAP_TYPE

Input schema 只能包含STRING作为MAP的键类型。

INVALID_LATERAL_JOIN_TYPE

不允许使用带有LATERAL相关性的 JOIN,因为OUTER子查询不能与它的连接伙伴关联。删除LATERAL关联或者使用INNER JOIN,或者LEFT OUTER JOIN代替。

INVALID_LIKE_PATTERN

pattern 无效。

有关详细信息,请参阅INVALID_LIKE_PATTERN

INVALID_PANDAS_UDF_PLACEMENT

组聚合pandas UDF 不能与其他非pandas聚合函数一起调用。

INVALID_PARAMETER_VALUE

中的参数“”的值无效:

INVALID_PRIVILEGE

特权<特权>对无效。

INVALID_PROPERTY_KEY

是一个无效的属性键,请使用引号,例如SET =

INVALID_PROPERTY_VALUE

是一个无效的属性值,请使用引号,例如SET =

INVALID_PROTOBUF_MESSAGE_TYPE

不是Protobuf消息类型

INVALID_S3_COPY_CREDENTIALS

COPY INTO凭证必须包括AWS_ACCESS_KEY, AWS_SECRET_KEY和AWS_SESSION_TOKEN。

INVALID_SCHEMA

输入模式不是一个有效的模式字符串。

有关详细信息,请参阅INVALID_SCHEMA

INVALID_SCHEME

Unity目录不支持作为默认文件方案。

INVALID_SECRET_LOOKUP

无效的秘密查找:

有关详细信息,请参阅INVALID_SECRET_LOOKUP

INVALID_SOURCE_CATALOG

SYNC命令的源目录不能在Unity目录中。找到<目录>。

INVALID_SQL_ARG

参数 ofsql ()是无效的。考虑用SQL文字语句替换它。

INVALID_SQL_FUNCTION_PLAN_STRUCTURE

无效的SQL函数计划结构

<计划>

INVALID_SQL_SYNTAX

错误的SQL语法:

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

在暂存<操作>查询中的暂存路径无效

INVALID_SUBQUERY_EXPRESSION

无效的子查询:

有关详细信息,请参阅INVALID_SUBQUERY_EXPRESSION

INVALID_TIMESTAMP_FORMAT

提供的时间戳<时间戳>与期望的语法<格式>不匹配。

INVALID_TYPED_LITERAL

类型文字的值无效:

INVALID_UPGRADE_SYNTAX

源表在Hive Metastore中,目的表在Unity Catalog中

INVALID_WHERE_CONDITION

WHERE条件<条件>包含无效表达式:

重写查询以避免WHERE子句中的窗口函数、聚合函数和生成器函数。

LOCATION_ALREADY_EXISTS

不能将托管表命名为<标识符>,因为它的关联位置<位置>已经存在。请选择不同的表名,或先删除现有位置。

MALFORMED_PROTOBUF_MESSAGE

在消息反序列化中检测到格式错误的Protobuf消息。解析模式:。要将格式错误的protobuf消息处理为空结果,请尝试将选项“mode”设置为“PERMISSIVE”。

MANAGED_TABLE_WITH_CRED

不支持使用存储凭据创建托管表。

MISSING_AGGREGATION

非聚合表达式基于不参与GROUP BY子句的列。

将列或表达式添加到GROUP BY,聚合表达式,或者如果您不关心返回组中的哪个值,则使用

MISSING_GROUP_BY

查询不包括GROUP BY子句。添加GROUP BY或使用OVER子句将其转换为窗口函数。

MISSING_NAME_FOR_CHECK_CONSTRAINT

CHECK约束必须有一个名称。

MISSING_STATIC_PARTITION_COLUMN

未知静态分区列:

MODIFY_BUILTIN_CATALOG

不支持修改内置目录

MULTIPLE_LOAD_PATH

Databricks Delta在load() API中不支持多个输入路径。

路径:< pathList >。通过加载构建单个DataFrame

同一Delta表的多个路径,请加载根路径

Delta表和相应的分区过滤器。如果有多条路径

来自不同的Delta表,请使用数据集的union()/unionByName() api

来组合由单独的load() API调用生成的数据帧。

MULTIPLE_MATCHING_CONSTRAINTS

找到至少两个与给定条件匹配的约束条件。

MULTI_UDF_INTERFACE_ERROR

不允许实现多个UDF接口,UDF类

NAMESPACE_ALREADY_EXISTS

不能创建的命名空间,因为它已经存在。

选择不同的名称,删除现有的名称空间,或添加IF NOT EXISTS子句以容忍现有的名称空间。

NAMESPACE_NOT_EMPTY

不能删除的命名空间,因为它包含对象。

使用DROP NAMESPACE…CASCADE删除命名空间及其所有对象。

NAMESPACE_NOT_FOUND

找不到的命名空间。验证名称空间的拼写和正确性。

如果没有限定名称,请验证current_schema()输出,或者使用正确的。

要容忍drop上的错误,请使用drop NAMESPACE IF EXISTS。

NESTED_AGGREGATE_FUNCTION

不允许在另一个聚合函数的参数中使用聚合函数。请在子查询中使用内部聚合函数。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个MATCHED子句时,只有最后一个MATCHED子句可以省略条件。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个NOT MATCHED BY SOURCE子句时,只有最后一个NOT MATCHED BY SOURCE子句可以省略条件。

NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个NOT MATCHED子句时,只有最后一个NOT MATCHED子句可以省略条件。

NON_LITERAL_PIVOT_VALUES

主值所需的文字表达式,找到

NON_PARTITION_COLUMN

. PARTITION子句不能包含非分区列。

NOT_SUPPORTED_WITH_DB_SQL

在SQL <端点>上不支持<操作>。

NO_HANDLER_FOR_UDAF

没有UDAF ' '的处理程序。请改用sparkSession.udf.register(…)。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

无法在Protobuf模式中找到

NO_UDF_INTERFACE

UDF类没有实现任何UDF接口

NULLABLE_ARRAY_OR_MAP_ELEMENT

的数组或映射包含可空元素,而它必须是非空元素。

NULLABLE_COLUMN_OR_FIELD

列或字段是可空的,而它必须是非空的。

NULL_COMPARISON_RESULT

对比结果为空。如果你想把null处理为0(等于),你可以设置" spark.sql.legacy "。allowNullComparisonResultInArraySort " to " true "。

NULL_MAP_KEY

不能使用空作为映射键。

NUMERIC_OUT_OF_SUPPORTED_RANGE

值<值>不能被解释为数字,因为它有超过38个数字。

NUMERIC_VALUE_OUT_OF_RANGE

<值>不能表示为十进制(<精度>,<比例>)。如果有必要,将设置为“false”以绕过此错误,并返回NULL。

NUM_COLUMNS_MISMATCH

只能在列数相同的输入上执行,但第一个输入有列,输入有列。

OPERATION_REQUIRES_UNITY_CATALOG

操作<操作>要求启用Unity Catalog。

OP_NOT_SUPPORTED_READ_ONLY

只读会话模式不支持

ORDER_BY_POS_OUT_OF_RANGE

ORDER BY position 不在select list中(有效范围是[1,])。

PARSE_EMPTY_STATEMENT

语法错误,意外的空语句

PARSE_SYNTAX_ERROR

语法错误在

PARTITIONS_ALREADY_EXIST

不能在表中添加或重命名分区,因为它们已经存在。

选择不同的名称、删除现有分区或添加IF NOT EXISTS子句以允许存在预先存在的分区。

PARTITIONS_NOT_FOUND

在table 中找不到分区。

验证分区规范和表名。

要容忍删除错误,请使用ALTER TABLE…drop IF EXISTS PARTITION。

PARTITION_METADATA

不允许在表上,因为在Unity Catalog中不支持存储分区元数据。

PATH_NOT_FOUND

路径不存在:< Path >。

PIVOT_VALUE_DATA_TYPE_MISMATCH

无效的主值' ':值数据类型与主列数据类型不匹配

PROTOBUF_DEPENDENCY_NOT_FOUND

无法找到依赖项:

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

读取路径为的Protobuf描述符文件时出错

PROTOBUF_FIELD_MISSING

中搜索<字段>给出匹配。匹配候选人:< >

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

在Protobuf模式中发现<字段>,但在SQL模式中没有匹配

PROTOBUF_FIELD_TYPE_MISMATCH

字段遇到类型不匹配:<字段>

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

不支持Java类。有关替代方案,请联系Databricks Support。

PROTOBUF_MESSAGE_NOT_FOUND

无法在描述符中找到的消息

PROTOBUF_TYPE_NOT_SUPPORT

Protobuf类型尚不支持:

QUERY_RESULT_PARSE_AS_ARROW_FAILED

在将结果解析为Arrow数据集时发生了内部错误。

QUERY_RESULT_READ_FROM_CLOUD_STORE_FAILED

从云存储下载结果集时发生内部错误。

QUERY_RESULT_WRITE_TO_CLOUD_STORE_FAILED

在将结果集上载到云存储时发生内部错误。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

函数的调用有集,它们是彼此的别名。请只设置其中一个。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

函数必需参数必须在位置处赋值,不带名称。

RECURSIVE_PROTOBUF_SCHEMA

在Protobuf模式中发现递归引用,Spark默认不能处理:。试着设置选项recursive.fields.max.depth0 ~ 10。超过10级递归是不允许的。

RENAME_SRC_PATH_NOT_FOUND

Failed to rename as was not found

REQUIRED_PARAMETER_NOT_FOUND

函数需要参数 at position 未找到,请按位置提供,而不是按名称。

RESERVED_CDC_COLUMNS_ON_WRITE

写入包含被使用的保留列

在内部作为变更数据提要的元数据。要写入表,可以选择rename/drop

或通过设置禁用表上的“更改数据提要”

到false。

RESET_PERMISSION_TO_ORIGINAL

将原权限设置回创建的路径失败:。例外:<消息>

ROUTINE_ALREADY_EXISTS

不能创建函数,因为它已经存在。

选择不同的名称、删除或替换现有的函数,或添加IF NOT EXISTS子句以容忍现有的函数。

ROUTINE_NOT_FOUND

找不到的函数。验证模式和编目的拼写和正确性。

如果没有使用模式和编目限定名称,请验证current_schema()输出,或者使用正确的模式和编目限定名称。

如果存在,请使用drop函数来容忍drop错误。

ROUTINE_PARAMETER_NOT_FOUND

函数不支持position 指定的参数

ROW_COLUMN_ACCESS

使用行筛选器或列掩码时出错:

有关详细信息,请参阅ROW_COLUMN_ACCESS

SAMPLE_TABLE_PERMISSIONS

样例数据库/表不支持权限。

SCALAR_SUBQUERY_TOO_MANY_ROWS

用作表达式的子查询返回的多行。

SCHEMA_ALREADY_EXISTS

无法创建schema ,因为它已经存在。

选择不同的名称、删除现有模式或添加IF NOT EXISTS子句以容忍现有模式。

SCHEMA_NOT_EMPTY

不能删除的模式,因为它包含对象。

使用DROP SCHEMA…CASCADE删除模式及其所有对象。

SCHEMA_NOT_FOUND

无法找到的schema。验证模式和编目的拼写和正确性。

如果没有使用编目限定名称,请验证current_schema()输出,或者使用正确的编目限定名称。

要容忍drop错误,请使用drop SCHEMA IF EXISTS。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

无法初始化模式注册表中的模式。< >的理由。

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

函数的第二个参数必须是一个整数。

STAGING_PATH_CURRENTLY_INACCESSIBLE

访问目标暂态路径<路径>时出现短暂错误,请稍候再试

STAR_GROUP_BY_POS

当GROUP BY使用序号位置时,选择列表中不允许出现*。

STREAMING_TABLE_NOT_SUPPORTED

流表只能在Delta Live Tables和Databricks SQL仓库中创建和刷新。

STREAMING_TABLE_OPERATION_INTERNAL_ERROR

流表上操作<操作>期间的内部错误:请提交错误报告。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

不允许执行< >操作:

有关详细信息,请参阅STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAM_FAILED

查询[id = , runId = ] terminate with exception:

SYNC_METADATA_DELTA_ONLY

修复表同步元数据命令只支持增量表。

SYNC_METADATA_NOT_SUPPORTED

修复表同步元数据命令只支持Unity目录表。

SYNC_SRC_TARGET_TBL_NOT_SAME

源表名必须与目标表名相同。

TABLE_OR_VIEW_ALREADY_EXISTS

不能创建的表或视图,因为它已经存在。

选择不同的名称,删除或替换现有的对象,添加IF NOT EXISTS子句以容忍现有的对象,或添加or REFRESH子句以刷新现有的流表。

TABLE_OR_VIEW_NOT_FOUND

找不到的表或视图。验证模式和编目的拼写和正确性。

如果没有使用模式限定名称,请验证current_schema()输出,或者使用正确的模式和编目限定名称。

要容忍drop错误,请使用drop VIEW IF EXISTS或drop TABLE IF EXISTS。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

无法创建临时视图,因为它已经存在。

选择不同的名称,删除或替换现有的视图,或添加IF NOT EXISTS子句以容忍已有的视图。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

CREATE TEMPORARY VIEW或相应的Dataset api只接受单一部分的视图名称,但是got:

TOO_MANY_ARRAY_ELEMENTS

不能用大小的元素初始化数组

UC_BUCKETED_TABLES

在Unity Catalog中不支持bucket表。

UC_CATALOG_NAME_NOT_PROVIDED

对于Unity目录,请显式地指定目录名称。例:显示拨款your.address.com在目录主。

UC_COMMAND_NOT_SUPPORTED

在Unity Catalog中不支持。

UC_DATASOURCE_NOT_SUPPORTED

数据源格式在Unity Catalog中不支持。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

Unity Catalog中不支持数据源选项。

UC_INVALID_NAMESPACE

Unity Catalog中不支持嵌套或空名称空间。

UC_INVALID_REFERENCE

非Unity-Catalog对象不能在Unity Catalog对象中引用。

UC_NOT_ENABLED

此集群上未启用Unity Catalog。

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

参数default value对于用户定义的函数不支持。

UDF_USER_CODE_ERROR

函数执行失败。

==错误==

< >错误

== Stacktrace ==

<堆栈>

UNABLE_TO_ACQUIRE_MEMORY

无法获得字节的内存,获得

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

无法将SQL类型转换为Protobuf类型

UNBOUND_SQL_PARAMETER

找到未绑定参数:。请修正arg游戏并提供参数到SQL文字语句的映射。

UNCLOSED_BRACKETED_COMMENT

发现一个未关闭的括号注释。请在评论的末尾加上*/。

UNEXPECTED_INPUT_TYPE

函数的参数需要类型,但是< inputql >的类型是

UNEXPECTED_POSITIONAL_ARGUMENT

函数的调用在命名参数赋值后包含一个位置参数。无效。

UNKNOWN_POSITIONAL_ARGUMENT

函数的调用包含一个未知的位置参数 at position 。无效。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

试图将作为消息处理,但它是

UNKNOWN_TABLE_TYPE

不支持表

UNPIVOT_REQUIRES_ATTRIBUTES

当没有<空>表达式时,UNPIVOT要求所有给定<给定>表达式为列。这些不是列:[]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

至少需要为UNPIVOT指定一个值列,所有列都指定为id

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

反枢轴值列必须共享最小公共类型,某些类型不共享:[]

UNPIVOT_VALUE_SIZE_MISMATCH

所有的反枢轴值列必须具有与值列名相同的大小()

UNRECOGNIZED_SQL_TYPE

无法识别的SQL类型

UNRESOLVED_ALL_IN_GROUP_BY

无法根据选择子句推断GROUP BY ALL的分组列。请显式地指定分组列。

UNRESOLVED_COLUMN

无法解析名称的列或函数参数。

有关详细信息,请参阅UNRESOLVED_COLUMN

UNRESOLVED_FIELD

名称的字段不能用结构类型列解析。

有关详细信息,请参阅UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

无法将column 解析为映射键。如果键是字符串文字,请在它周围加上单引号。

有关详细信息,请参阅UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

在搜索路径上无法解析函数

UNSUPPORTED_CONSTRAINT_CLAUSES

不支持约束子句< >子句。

UNSUPPORTED_CONSTRAINT_TYPE

不支持的约束类型。只支持

UNSUPPORTED_DATATYPE

不支持的数据类型

UNSUPPORTED_DESERIALIZER

不支持反序列化:

有关详细信息,请参阅UNSUPPORTED_DESERIALIZER

UNSUPPORTED_FEATURE

目前不支持该特性:

有关详细信息,请参阅UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

不支持用户自定义函数类型:

UNSUPPORTED_GENERATOR

不支持生成器:

有关详细信息,请参阅UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

grouping()/grouping_id()只能与GroupingSets/Cube/Rollup一起使用

UNSUPPORTED_SAVE_MODE

保存模式不支持:

有关详细信息,请参阅UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

数据源不支持作为共享集群上的流接收器。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

共享集群上不支持Data source 作为流媒体源。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

函数不支持流。请删除STREAM关键字

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

不支持的子查询表达式:

有关详细信息,请参阅UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TYPED_LITERAL

不支持类型的文字。支持的类型为

UNTYPED_SCALA_UDF

您正在使用无类型的Scala UDF,它没有输入类型信息。Spark可能盲目地将null传递给带有原语类型参数的Scala闭包,闭包将看到null参数的Java类型的默认值。udf (x):Int)= \ >x,IntegerType),则null输入的结果为0。要消除此错误,您可以:

  1. 使用有类型的Scala UDF api(没有返回类型参数),例如:udf (x):Int)= \ >x)

  2. 使用Java UDF api,例如udf(新UDF1(字符串,整数)覆盖def调用(s:字符串):整数s.length ()},IntegerType),如果输入类型都是非原语

  3. 设置“spark.sql.legacy。allowUntypedScalaUDF "为" true ",并谨慎使用此API

UPGRADE_NOT_SUPPORTED

表没有资格从Hive Metastore升级到Unity Catalog。原因:

有关详细信息,请参阅UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

用户定义的函数无效:

有关详细信息,请参阅USER_DEFINED_FUNCTIONS

VIEW_ALREADY_EXISTS

无法创建视图,因为它已经存在。

选择不同的名称、删除或替换现有对象,或添加IF NOT EXISTS子句以容忍已存在的对象。

VIEW_NOT_FOUND

找不到视图。验证模式和编目的拼写和正确性。

如果没有使用模式限定名称,请验证current_schema()输出,或者使用正确的模式和编目限定名称。

要容忍drop的错误,请使用drop VIEW IF EXISTS。

VOLUME_ALREADY_EXISTS

不能创建的卷,因为它已经存在。

选择不同的名称、删除或替换现有对象,或添加IF NOT EXISTS子句以容忍已存在的对象。

WITH_CREDENTIAL

不支持WITH CREDENTIAL语法。

WRITE_STREAM_NOT_ALLOWED

writeStream只能在流式数据集/数据帧上调用。

WRONG_NUM_ARGS

函数的参数个数无效。

有关详细信息,请参阅WRONG_NUM_ARGS

ZORDERBY_COLUMN_DOES_NOT_EXIST

ZOrderBy列不存在。

三角洲湖

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

找不到活跃的SparkSession

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

当一个txn已经激活时,无法将新的txn设置为激活

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

添加列失败,因为名称是保留的。

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

Index 添加 < 0的列

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

不能添加,因为它的父类型不是StructType。发现其他> <

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

在位置<位置>未找到结构

DELTA_ADD_CONSTRAINTS

请使用ALTER TABLE ADD CONSTRAINT添加CHECK约束。

DELTA_AGGREGATE_IN_GENERATED_COLUMN

找到< sqlExpr >。生成的列不能使用聚合表达式

DELTA_AGGREGATION_NOT_SUPPORTED

<操作> <谓词>中不支持聚合函数。

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

不支持将COLUMN 修改为

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

不允许操作:ALTER TABLE RENAME TO不允许用于S3上的托管Delta表,因为S3上的最终一致性可能会破坏Delta事务日志。如果您坚持这样做,并确定以前从未有一个新名称的Delta表,您可以通过将设置为true来启用此功能。

DELTA_AMBIGUOUS_PARTITION_COLUMN

不明确的分区列<列>可以

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

CREATE TABLE包含两个不同的位置:

您可以从CREATE TABLE语句或set中删除LOCATION子句

为true跳过此检查。

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

当表启用了变更数据提要(CDF)并且使用DROP COLUMN或RENAME COLUMN进行了模式更改时,不允许操作“”。

DELTA_BLOCK_COLUMN_MAPPING_SCHEMA_INCOMPATIBLE_OPERATION

不支持读不兼容的模式更改(例如重命名或删除或数据类型更改)的表。

读取模式:。不兼容的数据模式:

虽然强烈不建议,但是您也可以通过打开SQL conf 来强制忽略期间的模式检查,这有可能导致不正确的结果。

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

不能为以下不存在的列删除bloom筛选器索引:

DELTA_CANNOT_CHANGE_DATA_TYPE

不能更改数据类型:

DELTA_CANNOT_CHANGE_LOCATION

不能使用SET TBLPROPERTIES更改Delta表的“位置”。请使用ALTER TABLE SET LOCATION代替。

DELTA_CANNOT_CHANGE_PROVIDER

' provider '是保留表属性,不能更改。

DELTA_CANNOT_CONVERT_TO_FILEFORMAT

不能将转换为FileFormat。

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

不能为以下不存在的列创建bloom筛选器索引:

DELTA_CANNOT_CREATE_LOG_PATH

不能创建

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

不能描述视图的历史。

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

不能在未索引的列上删除bloom筛选器索引:

DELTA_CANNOT_EVALUATE_EXPRESSION

无法计算表达式:<表达式>

DELTA_CANNOT_FIND_BUCKET_SPEC

期望有一个装桶的Delta表,但在表中找不到桶规格

DELTA_CANNOT_FIND_VERSION

中找不到' sourceVersion '

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

不能为表达式生成代码:<表达式>

DELTA_CANNOT_GENERATE_UPDATE_EXPRESSIONS

在不生成列的情况下调用应始终为每列返回一个更新表达式

DELTA_CANNOT_MODIFY_APPEND_ONLY

该表配置为只允许追加。如果您想允许更新或删除,请使用' ALTER TABLE SET TBLPROPERTIES (=false) '。

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

Delta表配置不能由用户指定

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

在事务日志中发现一个不能转换为相对路径的uri ()。

DELTA_CANNOT_RELATIVIZE_PATH

类中的当前输入不能相对化的路径()

事务日志。请重新运行:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(" ", true)

然后运行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路径>”)

DELTA_CANNOT_RENAME_PATH

不能将重命名为

DELTA_CANNOT_REPLACE_MISSING_TABLE

Table 不能被替换,因为它不存在。使用CREATE OR REPLACE TABLE创建表。

DELTA_CANNOT_RESOLVE_COLUMN

不能解析中的列

DELTA_CANNOT_RESOLVE_SOURCE_COLUMN

无法解析源查询中符合条件的源列。请联系Databricks支持。

DELTA_CANNOT_RESTORE_TABLE_VERSION

无法将表恢复到版本<版本>。可用版本:[]。

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

无法将表恢复到时间戳(),因为它位于可用的最新版本之后。请在()之前使用时间戳

DELTA_CANNOT_SET_LOCATION_MULTIPLE_TIMES

不能多次设置位置。找到<地址>

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

不能更改基于路径的表的位置。

DELTA_CANNOT_UPDATE_ARRAY_FIELD

不能更新%1$s字段%2$s类型:通过更新%2$s element来更新元素

DELTA_CANNOT_UPDATE_MAP_FIELD

不能更新%1$s字段%2$s类型:通过更新%2$s来更新映射。键或%2$s.value

DELTA_CANNOT_UPDATE_OTHER_FIELD

无法更新类型为字段

DELTA_CANNOT_UPDATE_STRUCT_FIELD

不能更新 field type:通过添加、删除或更新其字段来更新结构体

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

不能将所有列用于分区列

DELTA_CANNOT_WRITE_INTO_VIEW

是视图。不支持对视图的写入。

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

配置三角洲。enableChangeDataFeed不能设置。来自Delta的更改数据提要还不可用。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

由于数据模式不兼容,在版本之间检索表更改失败。

您的读取模式在版本处为,但我们在版本处发现了不兼容的数据模式。

如果可能,请通过将设置为来使用最终版本的模式检索表更改endVersion,或联系技术支持。

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

检索版本之间的表更改失败,因为不兼容的模式更改。

您的读模式在版本处为,但是我们在版本处发现了不兼容的模式更改。

如果可能,请分别查询版本 - 1和版本的变化情况。

DELTA_CHANGE_TABLE_FEED_DISABLED

不能用增量写入表。enableChangeDataFeed集。Delta的更改数据提要不可用。

DELTA_CHECKPOINT_NON_EXIST_TABLE

不能检查一个不存在的表<路径>。中的文件是否手动删除δ日志目录吗?

DELTA_CHECKPOINT_SNAPSHOT_MISMATCH

检查点的状态与快照的状态不匹配。

DELTA_CLONE_AMBIGUOUS_TARGET

克隆目标提供了两条路径,因此使用哪一个是不明确的。一个外部

CLONE的location与路径同时提供在

< targetIdentifier >。

DELTA_CLONE_INCOMPLETE_FILE_COPY

文件()未完全复制。期望文件大小:,找到:。要继续操作,忽略文件大小检查集配置\ \ < >为假。

DELTA_CLONE_UNSUPPORTED_SOURCE

不支持克隆源' ',其格式为

支持的格式是' delta '(任何模式)和' parquet '(仅浅)。

DELTA_COLUMN_NOT_FOUND

无法找到列\ < columnName \ >鉴于[< columnList >)

DELTA_COLUMN_NOT_FOUND_IN_MERGE

无法从INSERT列中找到目标表的“”列:。INSERT子句必须为目标表的所有列指定值。

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

无法找到的列:

< tableSchema >

DELTA_COLUMN_PATH_NOT_NESTED

期望是嵌套数据类型,但发现。正在寻找

嵌套字段中<列>的索引

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

Struct列不能插入中的字段

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

在列中发现了嵌套的NullType,它的数据类型< >。Delta不支持在复杂类型中写入NullType。

DELTA_CONFLICT_SET_COLUMN

这些SET列之间有冲突:

DELTA_CONSTRAINT_ALREADY_EXISTS

Constraint ' '已经存在。请先删除旧的约束。

古老的约束:

< oldConstraint >

DELTA_CONSTRAINT_DOES_NOT_EXIST

不能从表中删除不存在的约束。要避免抛出错误,请提供参数IF EXISTS或将SQL会话配置设置为

DELTA_CONVERSION_NO_PARTITION_FOUND

在表的编目中没有找到分区信息。您是否在表上运行“MSCK REPAIR TABLE”来发现分区?

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

配置“”不能设置为\ \ <模式>当使用CONVERT TO DELTA时。

DELTA_CONVERT_NON_PARQUET_TABLE

CONVERT TO DELTA仅支持拼花表,但您正在尝试转换源:

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

您正在尝试创建一个外部表

\ \ <路径>类时没有指定模式

输入路径为空。

要了解BOB低频彩更多关于Delta的信息,请参见

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

您正在尝试创建一个外部表

% 2 $ s使用Delta,但是没有事务日志

% 2 $ s / _delta_log.检查上游作业以确保它正在使用

格式(" delta "),并且路径是表的根。

要了解BOB低频彩更多关于Delta的信息,请参见

DELTA_CREATE_TABLE_SCHEME_MISMATCH

指定的模式与的现有模式不匹配。

==指定==

< specifiedSchema >

==现有==

< existingSchema >

==差异==

< schemaDifferences >

如果您的意图是保留现有的模式,则可以省略

创建表命令中的架构。否则,请确保

模式匹配。

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

指定的分区与的现有分区不匹配。

==指定==

< specifiedColumns >

==现有==

< existingColumns >

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

指定的属性与的现有属性不匹配。

==指定==

< specificiedProperties >

==现有==

< existingProperties >

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

无法创建表(' ')。关联的位置(' ')不是空的,也不是Delta表。

DELTA_DATA_CHANGE_FALSE

无法更改表元数据,因为“dataChange”选项被设置为false。尝试操作:“”。

DELTA_DELETION_VECTOR_CHECKSUM_MISMATCH

无法验证删除向量完整性,CRC校验和验证失败。

DELTA_DELETION_VECTOR_SIZE_MISMATCH

删除向量完整性检查失败。遇到尺寸不匹配。

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

索引删除列小于0

DELTA_DUPLICATE_COLUMNS_FOUND

发现重复列:

DELTA_DUPLICATE_COLUMNS_ON_INSERT

INSERT子句中的列名重复

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

<消息>

请在更新表之前删除重复的列。

DELTA_DV_HISTOGRAM_DESERIALIZATON

在表完整性验证期间,无法反序列化已删除的记录计数直方图。

DELTA_EMPTY_DATA

用于创建Delta表的数据没有任何列。

DELTA_EMPTY_DIRECTORY

目录下找不到文件。

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

超过char/varchar类型长度限制。Failed check: .输出说明

DELTA_EXPRESSIONS_NOT_FOUND_IN_GENERATED_COLUMN

无法在生成的列中找到表达式

DELTA_EXTRACT_REFERENCES_FIELD_NOT_FOUND

提取引用时无法找到字段

DELTA_FAILED_CAST_PARTITION_VALUE

转换分区值失败\ \ <值><数据类型>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

无法在现有的目标输出中找到

DELTA_FAILED_FIND_PARTITION_COLUMN_IN_OUTPUT_PLAN

在输出计划中找不到

DELTA_FAILED_INFER_SCHEMA

未能从给定的文件列表推断架构。

DELTA_FAILED_MERGE_SCHEMA_FILE

Failed to merge schema of file :

<模式>

DELTA_FAILED_RECOGNIZE_PREDICATE

无法识别谓词“<谓词>”

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

期望对Delta源代码的最新版本进行完整扫描,但发现版本的历史扫描

DELTA_FAILED_TO_MERGE_FIELDS

合并字段“”和“”失败。< fieldChild >

DELTA_FAIL_RELATIVIZE_PATH

无法相对化路径()。这可能发生在绝对路径

将其放入事务日志中,事务日志从方案开始

s3://, wasbs://或adls://。这个bug在DBR 5.0之前就已经存在了。

要解决此问题,请将写入作业升级到DBR 5.0并运行:

% % scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<路径>”)。

如果该表是通过跨文件系统的浅克隆创建的

(不同的桶/容器),这个表不用于生产,你可以

设置SQL配置

为true。使用此SQL配置可能会导致意外数据丢失,

因此,我们不建议使用此标志,除非

这是一个用于测试的浅克隆。

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

无法在此表上操作,因为在元数据中启用了下列表功能,但在协议中未列出:

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

无法启用表特性<特性>,因为它需要更高的读取器协议版本(当前<当前>)。考虑将表的读取器协议版本升级到<所需的>,或者升级到支持读取器表特性的版本。有关表协议版本的更多信息,请参阅

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

无法启用表feature ,因为它需要更高的写入协议版本(当前<当前>)。考虑将表的写入器协议版本升级到<所需的>,或者升级到支持写入器表特性的版本。有关表协议版本的更多信息,请参阅

DELTA_FILE_ALREADY_EXISTS

现有文件路径

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

不能同时指定文件列表和模式字符串。

DELTA_FILE_NOT_FOUND

文件路径

DELTA_FILE_OR_DIR_NOT_FOUND

没有这样的文件或目录:

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

要重写的文件()在候选文件中找不到:

< pathList >

DELTA_FOUND_MAP_TYPE_COLUMN

发现MapType。要访问MapType的键或值,请指定一个

:

< >键或

<值>

后面跟着列的名称(仅当该列是结构类型时)。

例如mymap.key.mykey

如果列是基本类型,则为mymap。钥匙或我的地图。有价值就足够了。

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

Column 为生成的列或生成的列使用的列。数据类型为。它不接受数据类型

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

生成的列的表达式类型为,但列类型为

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

Column 为已生成列或已生成列使用的列。数据类型为,不能转换为

DELTA_ILLEGAL_FILE_FOUND

在dataChange = false事务中发现非法文件。文件:<文件>

DELTA_ILLEGAL_OPTION

对于选项“”,<解释>,“”无效值

DELTA_ILLEGAL_USAGE

当<操作>是Delta表时,不允许使用<选项>。

DELTA_INCONSISTENT_BUCKET_SPEC

Delta bucket表的BucketSpec与元数据中的BucketSpec不匹配。预期:< >。实际实际:< >。

DELTA_INCONSISTENT_LOGSTORE_CONFS

()不能设置为不同的值。请只设置其中一个,或者将它们设置为相同的值。

DELTA_INCORRECT_ARRAY_ACCESS

错误地访问ArrayType。使用arrayname.element.elementname定位

添加到数组。

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

找到了一个ArrayType。要访问ArrayType的元素,请指定

< rightName >

而不是

DELTA_INCORRECT_GET_CONF

使用getConf ()而不是' conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

该错误通常发生在默认的LogStore实现,即

HDFSLogStore,用于在非hdfs存储系统上写入Delta表。

为了在表更新上获得事务性ACID保证,必须使用

正确实现适合您的存储系统的LogStore。

详见

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

索引<位置>删除列等于或大于结构体长度:<长度>

DELTA_INDEX_LARGER_THAN_STRUCT

Index < Index > to add column 大于struct length:

DELTA_INSERT_COLUMN_ARITY_MISMATCH

不能写入 ', ;目标表有列,但插入的数据有

DELTA_INSERT_COLUMN_MISMATCH

Column 在INSERT中没有指定

DELTA_INVALID_BUCKET_COUNT

无效桶计数:。桶数应该是一个正数,是2的幂,至少是8。您可以使用代替。

DELTA_INVALID_BUCKET_INDEX

在分区列中找不到桶列

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

间隔不能为空或空。

DELTA_INVALID_CDC_RANGE

CDC范围从start 到end 无效。结束不能在开始之前。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

属性名" "包含无效字符",;{}()\n\t= "。请使用别名重命名。

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

在模式的列名中发现',;{}()nt= '中的无效字符。<通知>

DELTA_INVALID_CLONE_PATH

CLONE的目标位置必须是绝对路径或表名。使用一个

绝对路径而不是

DELTA_INVALID_COMMITTED_VERSION

提交的版本为,当前版本为。请联系Databricks支持。

DELTA_INVALID_FORMAT

检测到不兼容的格式。

Delta的事务日志在\ < deltaRootPath \ > / _delta_log

但是您正在尝试<操作>\ \ <路径>使用格式(“< >格式”)。你必须使用

' format(" delta ") '用于读写增量表。

要禁用此检查,SET spark. databicks .delta. formatcheck .enabled=false

要了解BOB低频彩更多关于Delta的信息,请参见

DELTA_INVALID_FORMAT_FROM_SOURCE_VERSION

不支持的格式。期望版本应该小于或等于,但。请升级到新版本的Delta。

DELTA_INVALID_GENERATED_COLUMN_FORMAT

生成的列仅由Delta支持

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

生成的列不能使用不存在的列或另一个生成的列

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

无效的幂等选项Dataframe写入:

DELTA_INVALID_INTERVAL

不是有效的interval。

DELTA_INVALID_ISOLATION_LEVEL

无效隔离级别“

DELTA_INVALID_LOGSTORE_CONF

\ < classConfig \ >)及(\ < schemeConfig \ >)不能同时设置。请只设置其中一组。

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

您正在尝试创建一个托管表

使用Delta,但没有指定模式。

要了解BOB低频彩更多关于Delta的信息,请参见

DELTA_INVALID_PARTITIONING_SCHEMA

AddFile包含与表的分区模式不同的分区模式

预期:< neededPartitioning >

实际:< specifiedPartitioning >

禁用此检查集 To " false "

DELTA_INVALID_PARTITION_COLUMN

不是表中的有效分区列。

DELTA_INVALID_PARTITION_COLUMN_NAME

发现在",;{}()nt= "中存在无效字符的分区列。请将名称更改为您的分区列。这个检查可以通过设置spark.conf.set(" spark. databicks . Delta . partitioncolumnvalidity .enabled ", false)来关闭,但是不建议这样做,因为Delta的其他特性可能无法正常工作。

DELTA_INVALID_PARTITION_COLUMN_TYPE

不支持使用类型的列作为分区列。

DELTA_INVALID_PARTITION_PATH

分区路径片段应该是这样的形式part1 = foo / part2 = bar.分区路径:

DELTA_INVALID_PROTOCOL_DOWNGRADE

协议版本不能从降级到

DELTA_INVALID_PROTOCOL_VERSION

Delta协议版本对于这个版本的Databricks来说太新了:表要求,客户端支持。请升级到更新的版本。

DELTA_INVALID_SOURCE_VERSION

sourceVersion()无效

DELTA_INVALID_TABLE_VALUE_FUNCTION

Function < Function >是CDC读取不支持的表值函数。

DELTA_INVALID_TIMESTAMP_FORMAT

提供的时间戳<时间戳>与期望的语法<格式>不匹配。

DELTA_INVALID_V1_TABLE_CALL

调用不期望基于路径的

DELTA_ITERATOR_ALREADY_CLOSED

迭代器关闭

DELTA_LOG_ALREADY_EXISTS

已存在Delta日志

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

如果您从未删除它,那么您的查询可能会滞后。请删除它的检查点重新开始。为了避免这种情况再次发生,您可以更新Delta表的保留策略

DELTA_MAX_ARRAY_SIZE_EXCEEDED

请使用小于Int的限制。MaxValue - 8。

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

此提交失败,因为已尝试次但未成功。

这可能是由于Delta表被多个并发表连续提交造成的

提交。

Commit started at version:

提交失败的版本:

尝试提交的动作数: .尝试提交的动作数

尝试此提交所花费的总时间: ms

DELTA_MAX_LIST_FILE_EXCEEDED

文件列表必须有最多项,有

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

与不兼容的合并十进制类型失败

DELTA_MERGE_MISSING_WHEN

MERGE语句中必须至少有一个WHEN子句。

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

意外赋值键:< Unexpected keyclass > - < Unexpected keyobject >

DELTA_METADATA_ABSENT

提交Delta表的第一个版本时找不到元数据。禁用

this check set to " false "

DELTA_MISSING_CHANGE_DATA

获取范围[]的更改数据错误,因为更改数据不是

已录制版本[]。如果您在该表上启用了更改数据提要,

使用描述历史查看第一次启用的时间。

否则,要开始记录更改数据,请使用' ALTER TABLE table_name SET TBLPROPERTIES '

(<键> = true)”。

DELTA_MISSING_COLUMN

不能在表列中找到:

DELTA_MISSING_DELTA_TABLE

>不是一个增量表。

DELTA_MISSING_FILES_UNEXPECTED_VERSION

来自Delta表的流期望来自版本的流程数据,

但最早可用的版本δ日志目录为<早期版本>. log。的文件

中的事务日志可能已由于日志清理而被删除。为了避免失败

数据,我们建议您重新启动您的流与一个新的检查点位置和

增加增量。logRetentionDuration设置,如果您显式地将其设置为30以下

天。

如果您想忽略遗漏的数据,并从它离开的地方继续您的流

关闭时,可以设置.option("

你的readStream语句。

DELTA_MISSING_ICEBERG_CLASS

没有找到冰山类。请确保安装了德尔塔冰山支架。

详情请参考

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

Column ,它有一个NOT NULL约束,在写入表的数据中缺失。

DELTA_MISSING_PARTITION_COLUMN

分区列\ < columnName \ >在schema 中没有找到

DELTA_MISSING_PART_FILES

无法找到检查点版本:<版本>的所有部分文件

DELTA_MISSING_PROVIDER_FOR_CONVERT

CONVERT TO DELTA只支持拼花桌。请把你的目标改写为拼花。\ \ <路径>如果是拼花牌目录。

DELTA_MISSING_SET_COLUMN

SET column not found given columns: . SET column

DELTA_MISSING_TRANSACTION_LOG

检测到不兼容的格式。

您正在尝试<操作>\ \ <路径>使用Delta,但是没有

事务日志存在。检查上游作业以确保它正在写入

使用format(" delta "),并且您正在尝试%1$s表的基路径。

要禁用此检查,SET spark. databicks .delta. formatcheck .enabled=false

要了解BOB低频彩更多关于Delta的信息,请参见

DELTA_MODE_NOT_SUPPORTED

不支持指定模式“”。支持的模式有:

DELTA_MULTIPLE_CDC_BOUNDARY

为CDC读取提供多个参数。请提供一个时间戳或版本。

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

多个bloom过滤器索引配置传递给列命令:

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

无法执行合并,因为多个源行匹配并试图修改相同的行

以可能冲突的方式在Delta表中添加目标行。通过Merge的SQL语义,

当多个源行在同一目标行上匹配时,结果可能不明确

因为不清楚应该使用哪个源行来更新或删除匹配

目标行。可以对源表进行预处理,以消除发生的可能性

多个匹配。详情请参阅

< usageReference >

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

以下列名仅保留给Delta bucket - typed表内部使用

DELTA_NESTED_FIELDS_NEED_RENAME

嵌套字段需要重命名以避免数据丢失。字段:

<字段>。

原始模式:

<模式>

DELTA_NESTED_NOT_NULL_CONSTRAINT

字段类型包含一个NOT NULL约束。Delta不支持嵌套在数组或映射中的not NULL约束。要抑制此错误并静默忽略指定的约束,请设置 = true。

>类型:

< nestedPrettyJson >

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

条件不支持嵌套子查询。

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

中的行违反了新的CHECK约束()

DELTA_NEW_NOT_NULL_VIOLATION

中的行违反了上新的NOT NULL约束

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

CHECK约束' ' ()应该是一个布尔表达式。

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

<操作> <表达式>中不支持非确定性函数

DELTA_NON_GENERATED_COLUMN_MISSING_UPDATE_EXPR

不是生成的列,但缺少更新表达式

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个MATCHED子句时,只有最后一个MATCHED子句可以省略条件。

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个NOT MATCHED BY SOURCE子句时,只有最后一个NOT MATCHED BY SOURCE子句可以省略条件。

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

当MERGE语句中有多个NOT MATCHED子句时,只有最后一个NOT MATCHED子句可以省略条件

DELTA_NON_PARSABLE_TAG

无法解析<标签>。

文件标签为:

DELTA_NON_PARTITION_COLUMN_ABSENT

写入Delta的数据需要包含至少一个非分区列

DELTA_NON_PARTITION_COLUMN_REFERENCE

谓词引用非分区列“”。只有分区列可以被引用:[]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

非分区列被指定,其中只期望分区列:

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

Delta目录需要单部分名称空间,但是多部分名称空间。

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

不是一个Delta表。如果要使用Databricks Delta创建该表,请先删除该表。

DELTA_NOT_A_DELTA_TABLE

>不是一个增量表。请先放下这张桌子,如果你想和三角洲湖一起重建它。

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

struct中没有非空列:

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

.字段违反了NOT NULL约束。

DELTA_NOT_NULL_NESTED_FIELD

不可为空的嵌套字段不能添加到可为空的父字段。请相应地设置父列的可空性。

DELTA_NO_COMMITS_FOUND

处没有发现提交

DELTA_NO_NEW_ATTRIBUTE_ID

未能为列找到新的属性ID。这应该早点检查的。

DELTA_NO_RECREATABLE_HISTORY_FOUND

没有在找到可重新创建的提交

DELTA_NO_RELATION_TABLE

Table 未找到

DELTA_NO_START_FOR_CDC_READ

没有为CDC读取提供startingVersion或startingTimestamp。

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

Delta在流写入模式中不接受NullTypes。

DELTA_ONEOF_IN_TIMETRAVEL

请为时间旅行提供“时间戳”或“版本号”。

DELTA_ONLY_OPERATION

仅支持Delta表。

DELTA_OPERATION_MISSING_PATH

请为<操作>提供路径或表标识符。

DELTA_OPERATION_NOT_ALLOWED

不允许操作:\ \ > <操作不支持Delta表

DELTA_OPERATION_NOT_ALLOWED_DETAIL

不允许操作:\ \ > <操作Delta表不支持:

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

不支持在临时视图上引用包含已生成列的Delta表的命令。请直接在Delta表上执行命令

DELTA_OVERWRITE_MUST_BE_TRUE

拷贝选项overwriteSchema如果没有设置OVERWRITE = ' true '就不能指定。

DELTA_PARTITION_COLUMN_CAST_FAILED

转换值失败\ \ <值><数据类型\ \ >对于划分列\ < columnName \ >

DELTA_PARTITION_COLUMN_NOT_FOUND

分区列在架构中不存在[]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

在转换冰山表时不能指定分区模式。它是自动推断出来的。

DELTA_PATH_DOES_NOT_EXIST

不存在

DELTA_PATH_EXISTS

如果没有设置OVERWRITE = ' true ',无法写入已经存在的路径

DELTA_POST_COMMIT_HOOK_FAILED

向Delta表version 提交成功,但在执行后提交钩子时出错

DELTA_PROTOCOL_PROPERTY_NOT_INT

协议属性需要为整数。发现价值> <

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

无法仅升级读取器协议版本以使用表功能。写入器协议版本必须至少为才能继续。有关表协议版本的更多信息,请参阅

DELTA_READ_TABLE_WITHOUT_COLUMNS

您正在尝试读取没有任何列的Delta table

使用该选项写入一些新数据mergeSchema真正的能够读懂表格。

DELTA_REGEX_OPT_SYNTAX_ERROR

请重新检查' '的语法

DELTA_REMOVE_FILE_CDC_MISSING_EXTENDED_METADATA

没有扩展元数据创建的RemoveFile不适合CDC:

<文件>

DELTA_REPLACE_WHERE_IN_OVERWRITE

你不能将replaceWhere与覆盖过滤器结合使用

DELTA_REPLACE_WHERE_MISMATCH

写入的数据不匹配replaceWhere ' '。

<消息>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

在DataFrameWriter选项中不能同时设置' replaceWhere '表达式和' partitionOverwriteMode ' = ' dynamic '。

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

当' dataChange '设置为false时,' replaceWhere '不能与数据过滤器一起使用。过滤器:< dataFilters >

DELTA_SCHEMA_CHANGED

检测到架构更改:

流源模式:

数据文件模式: .使用实例

请尝试重新启动查询。如果此问题在整个查询中重复,则重新启动查询

正在取得进展,您已经进行了不兼容的架构更改,需要开始您的

使用新的检查点目录从头查询。

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

在版本<版本>中检测到架构更改:

流源模式:

数据文件模式: .使用实例

请尝试重新启动查询。如果此问题在整个查询中重复,则重新启动查询

正在取得进展,您已经进行了不兼容的架构更改,需要开始您的

使用新的检查点目录从头查询。如果问题仍然存在

更改到新的检查点目录时,可能需要更改现有的检查点目录

' startingVersion '或' startingTimestamp '选项从更新的版本开始

使用新的检查点目录

DELTA_SCHEMA_CHANGED_WITH_VERSION

在版本<版本>中检测到架构更改:

流源模式:

数据文件模式: .使用实例

请尝试重新启动查询。如果此问题在整个查询中重复,则重新启动查询

正在取得进展,您已经进行了不兼容的架构更改,需要开始您的

使用新的检查点目录从头查询。

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

自DataFrame以来,Delta表的模式已以不兼容的方式更改

或DeltaTable对象被创建。请重新定义您的DataFrame或DeltaTable对象。

变化:

< schemaDiff > < legacyFlagMessage >

DELTA_SCHEMA_NOT_CONSISTENT_WITH_TARGET

表模式与目标属性不一致

DELTA_SCHEMA_NOT_PROVIDED

没有提供表模式。当使用REPLACE表且未提供AS SELECT查询时,请提供表的模式(列定义)。

DELTA_SCHEMA_NOT_SET

表模式未设置。将数据写入其中或使用CREATE TABLE设置模式。

DELTA_SET_LOCATION_SCHEMA_MISMATCH

新增量位置的模式与当前表模式不同。

原始模式:

原始> <

目标模式:

<目标>

如果这是有意更改,您可以通过运行以下命令关闭此检查:

%%sql set = true

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

非分区列为SHOW分区指定

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

不允许在未分区的表上执行SHOW PARTITIONS:

DELTA_SOURCE_IGNORE_DELETE

从版本的流源中检测到已删除的数据(例如)。目前不支持。如果你想忽略删除,设置选项' ignoreDeletes '为' true '。源表可以在path 处找到。

DELTA_SOURCE_TABLE_IGNORE_CHANGES

检测到源表中版本<版本>的数据更新(例如<文件>)。目前不支持。如果你想忽略更新,将选项' ignoreChanges '设置为' true '。如果希望反映数据更新,请使用新的检查点目录重新启动此查询。源表可以在path 处找到。

DELTA_SPARK_SESSION_NOT_SET

未设置活动SparkSession。

DELTA_SPARK_THREAD_NOT_FOUND

没有在Spark任务线程上运行

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

请提供“<版本>”或“<时间戳>”

DELTA_STATE_RECOVER_ERROR

重构时无法恢复Delta表的<操作>

版本:<版本>。中的文件是否手动删除δ日志目录吗?

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

stats not found for column in Parquet metadata: . >

DELTA_STREAM_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

日志含义检查列映射模式更改时,获取起始版本的Delta日志快照失败。请选择不同的开始版本,或通过将' '设置为' true '强制启用流读取,风险自负。

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

无法在表上启用更改数据捕获。该表已经包含

保留的列

在内部用作表的Change Data Feed的元数据。要启用

更改表上的Data Feed,重命名/删除这些列。

DELTA_TABLE_ALREADY_EXISTS

已存在。

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

目前DeltaTable。forPath只支持以开头的hadoop配置键,但得到

DELTA_TABLE_FOUND_IN_EXECUTOR

DeltaTable不能在执行器中使用

DELTA_TABLE_LOCATION_MISMATCH

现有表的位置是。它不匹配指定的位置

DELTA_TABLE_NOT_FOUND

Delta table 不存在。

DELTA_TABLE_NOT_FOUND_STREAMING

Delta table 不存在。请删除您的流查询检查点并重新启动。

DELTA_TABLE_NOT_SUPPORTED_IN_OP

<操作>不支持该表。请使用路径代替。

DELTA_TABLE_ONLY_OPERATION

>不是一个增量表。仅支持Delta表。

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

目标表最终模式为空。

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

提供的时间戳()位于可用的最新版本之后

表(<表名>)。请在之前或之前使用时间戳。

DELTA_TIMESTAMP_INVALID

提供的时间戳()不能转换为有效的时间戳。

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

需要是一个有效的开始值。

DELTA_TRUNCATED_TRANSACTION_LOG

:无法重建版本的状态,因为事务日志由于手动删除或日志保留策略(=< logretention>)和检查点保留策略(=< checkpointretion>)而被截断。

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

不允许操作:Delta表上的TRUNCATE TABLE不支持分区谓词;使用DELETE删除指定的分区或行。

DELTA_TXN_LOG_FAILED_INTEGRITY

事务日志未通过完整性检查。在版本<版本>的验证失败:

< mismatchStringOpt >

DELTA_UDF_IN_GENERATED_COLUMN

找到< udfExpr >。生成的列不能使用用户定义的函数

DELTA_UNEXPECTED_ACTION_EXPRESSION

意外动作表达式<表达式>。

DELTA_UNEXPECTED_ACTION_IN_OPTIMIZE

意外动作<动作>类型。优化应该只有AddFiles和RemoveFiles。

DELTA_UNEXPECTED_ALIAS

预期的别名,但得到<别名>

DELTA_UNEXPECTED_ATTRIBUTE_REFERENCE

期望AttributeReference但得到

DELTA_UNEXPECTED_CHANGE_FILES_FOUND

在dataChange = false事务中找到的更改文件。文件:

<文件列表>

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

期望分区列(s): ,但发现分区列(s): < parsedcols>从解析文件名:<路径>

DELTA_UNEXPECTED_PARTIAL_SCAN

预计会对Delta源进行全面扫描,但只发现了部分扫描。路径:<路径>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

期望分区列,但从解析文件名发现分区列: <路径>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

调用CONVERT TO DELTA时使用的分区模式不同于从编目推断的分区模式,请避免提供该模式,以便可以从编目中选择分区模式。

编目分区架构:

< catalogPartitionSchema >

提供的分区模式:

< userPartitionSchema >

DELTA_UNEXPECTED_PROJECT

期望项目,但得到<项目>

DELTA_UNKNOWN_CONFIGURATION

指定了未知配置:

DELTA_UNKNOWN_PRIVILEGE

未知权限:<特权>

DELTA_UNKNOWN_READ_LIMIT

Unknown ReadLimit:

DELTA_UNRECOGNIZED_COLUMN_CHANGE

无法识别的列更改。你可能正在运行一个过时的Delta Lake版本。

DELTA_UNRECOGNIZED_FILE_ACTION

无法识别的文件动作<动作>类型

DELTA_UNRECOGNIZED_INVARIANT

未识别的不变的。请升级Spark版本。

DELTA_UNRECOGNIZED_LOGFILE

无法识别的日志文件 . txt

DELTA_UNSET_NON_EXISTENT_PROPERTY

试图在表中取消设置不存在的属性“

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

不支持添加绝对路径的文件

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

不支持ALTER TABLE REPLACE COLUMNS操作。原因:<详细>

更改架构失败:

< oldSchema >

:

< newSchema >

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

您试图用CLONE替换现有表()。这个操作是

不受支持的。尝试CLONE的其他目标或删除当前目标上的表。

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

不支持将列映射模式从“”更改为“”。

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

当前表协议版本不支持更改列映射模式

使用< config >。

列映射所需的增量协议版本:

< requiredVersion >

您表的当前Delta协议版本:

< currentVersion >

<通知>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

检测到架构更改:

旧模式:

< oldTableSchema >

新模式:

< newTableSchema >

在更改列映射模式期间不允许更改模式。

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

不支持以列映射方式写入数据。

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

不支持在类型为的列上创建bloom过滤器索引:

DELTA_UNSUPPORTED_DATA_TYPES

发现使用不支持的数据类型的列:。您可以将' '设置为' false '来禁用类型检查。禁用此类型检查可能允许用户创建不受支持的Delta表,仅在尝试读写遗留表时使用。

DELTA_UNSUPPORTED_DEEP_CLONE

此Delta版本不支持深度克隆。

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

是视图。description DETAIL仅支持表。

DELTA_UNSUPPORTED_DROP_COLUMN

Delta表不支持DROP COLUMN。<通知>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

只能从StructType中删除嵌套列。找到<结构>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

不允许删除分区列()。

DELTA_UNSUPPORTED_EXPRESSION

不支持的表达式类型()。支持的类型是[]。

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

<表达式>不能用于生成的列中

DELTA_UNSUPPORTED_FEATURES_FOR_READ

无法读取此表,因为它需要此版本Databricks不支持的读取器表特性:

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

无法写入此表,因为它需要此版本Databricks不支持的写入器表特性:

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

在以下Spark配置或Delta表属性中配置的表特性不被此版本的Databricks识别:

DELTA_UNSUPPORTED_FEATURE_STATUS

期望表feature 的状态是“enabled”,但是得到了“”。

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

仅支持对StructType更新嵌套字段,但您正在尝试更新的字段,其类型为:

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

带有删除向量的表版本不支持' FSCK REPAIR TABLE '命令。

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

带有删除向量的表版本不支持“GENERATE symlink_format_manifest”命令。

为了生成一个不删除向量的表版本,运行' REORG table table APPLY (PURGE) '。然后重新运行“GENERATE”命令。

确保没有并发事务在REORG和GENERATE之间再次添加删除向量。

如果你需要定期生成清单,或者你不能阻止并发事务,考虑使用' ALTER table table SET TBLPROPERTIES (createDeletionVectors = false) '禁用这个表上的删除向量。

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

不支持StructTypes以外的嵌套字段上的不变量。

DELTA_UNSUPPORTED_IN_SUBQUERY

<操作>条件不支持In子查询。

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

listKeywithPrefix不可用

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

使用列映射的表不支持清单生成,因为外部阅读器无法读取这些Delta表。有关详细信息,请参阅Delta文档。

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

具有模式演化的MERGE INTO操作目前不支持写入CDC输出。

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

条件不支持多列In谓词。

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

目前不支持在嵌套列上创建bloom filer索引:

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

<操作> (field = )不支持嵌套字段。

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

克隆目标表非空。在运行克隆之前,请从表中截断或删除。

DELTA_UNSUPPORTED_OUTPUT_MODE

数据源不支持输出模式

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

不支持在分区列上创建bloom过滤器索引:

DELTA_UNSUPPORTED_RENAME_COLUMN

Delta表不支持列重命名。<通知>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

Delta不支持在读取时指定模式。

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

Delta bucket表不支持SORTED BY

DELTA_UNSUPPORTED_SOURCE

destination仅支持Delta源。

<计划>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

在插入期间,目前不支持在分区规范中指定静态分区

DELTA_UNSUPPORTED_STRATEGY_NAME

不支持的策略名称:<策略>

DELTA_UNSUPPORTED_SUBQUERY

<操作> (condition = )不支持子查询。

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

分区谓词中不支持子查询。

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

不能以多种格式指定时间旅行。

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

不能穿越视图、子查询、流或更改数据提要查询。

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

不支持截断样例表

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

在清空增量表时,请提供基本路径()。目前不支持清空特定分区。

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

表实现不支持写入:

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

不支持写入示例表

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

不能将强制转换为。所有嵌套列必须匹配。

DELTA_VERSIONS_NOT_CONTIGUOUS

版本()不是连续的。

有关详细信息,请参阅DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

检查约束 <表达式>被带值的行违反:

<值>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

违反了表<表>的属性验证:

有关详细信息,请参阅DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

>是一个视图。不能向视图中写入数据。

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

z - ordered列在数据模式中不存在。

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

上的z排序将是

无效,因为我们目前不收集这些列的统计信息。详情请参阅

<链接>

有关数据跳过和z排序的更多信息。你可以禁用

此检查通过设置

' %%sql set = false '

DELTA_ZORDERING_ON_PARTITION_COLUMN

是分区列。z排序只能在数据列上执行

自动装卸机

CF_ADD_NEW_NOT_SUPPORTED

指定模式时,不支持模式演化模式。要使用此模式,可以通过提供模式cloudFiles.schemaHints代替。

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

为(默认)目录找到通知设置身份验证选项

清单模式:

<选项>

如果您希望使用文件通知方式,请显式设置:

选项“cloudFiles。< useNotificationsKey >”“真正的”

或者,如果您想跳过对选项的验证并忽略这些选项

认证选项,您可以设置:

选项“cloudFiles。< ValidateOptionsKey >”“假”

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

增量列表模式(cloudFiles.)

和文件通知(cloudFiles.)

已同时启用。

请确保只选择一个。

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

Azure需要adlsBlobSuffix和adlsDfsSuffix

CF_BUCKET_MISMATCH

文件事件中的\ < fileEvent \ >与来源所期望的不同:源\ \ < >

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

当模式日志为空时,无法演化模式。架构日志位置:

CF_CANNOT_RESOLVE_CONTAINER_NAME

无法从路径:<路径>解析容器名称,解析uri:

CF_CANNOT_RUN_DIRECTORY_LISTING

当有异步回填线程运行时,不能运行目录列表

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

无法打开cloudFiles。cleanource和cloudFiles。allowoverride同时进行。

CF_DUPLICATE_COLUMN_IN_DATA

在尝试推断表的分区架构时出错。在数据和分区路径中复制了相同的列。要忽略分区值,请使用:.option(" cloudFiles. exe ")显式提供分区列。< partitionColumnsKey >”、“{comma-separated-list}”)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

输入路径时不能推断模式\ \ <路径>是空的。请尝试在输入路径中有文件时启动流,或指定模式。

CF_EVENT_GRID_AUTH_ERROR

创建事件网格订阅失败。请确保您的服务

principal有事件网格订阅。详情请浏览:

<不再>

CF_EVENT_GRID_CREATION_FAILED

创建事件网格订阅失败。请确保微软。EventGrid是

在您的订阅中注册为资源提供者。详情请浏览:

<不再>

CF_EVENT_GRID_NOT_FOUND_ERROR

创建事件网格订阅失败。请确保您的存储

帐户()在您的资源组()下

存储帐户为“StorageV2(通用v2)”帐户。详情请浏览:

<不再>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

>不支持Auto Loader事件通知模式。

CF_FAILED_TO_CHECK_STREAM_NEW

日志含义检查流是否为新流失败

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

创建订阅失败:\ < subscriptionName \ >.具有相同名称的订阅已经存在,并且与另一个主题关联:\ < otherTopicName \ >.理想的主题是\ < proposedTopicName \ >.要么删除现有订阅,要么创建具有新资源后缀的订阅。

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

创建主题失败:\ < topicName \ >.已经存在同名的主题。删除现有主题或使用其他资源后缀重试

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

日志含义删除带有id的通知失败\ < notificationId \ >在斗\ < bucketName \ >为主题\ < topicName \ >.请重试或通过GCP控制台手动删除通知。

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

从字符串中反序列化持久化模式失败:' '

CF_FAILED_TO_EVOLVE_SCHEMA

没有模式日志就不能发展模式。

CF_FAILED_TO_FIND_PROVIDER

无法找到的提供者

CF_FAILED_TO_INFER_SCHEMA

无法从输入路径中的现有文件推断format 的模式。请确保正确地配置了选项或显式地指定了模式。

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

日志含义在<路径>的位置写入架构日志失败。

CF_FILE_FORMAT_REQUIRED

无法找到所需选项:cloudFiles.format。

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

发现多个()订阅的Auto Loader前缀为主题\ < topicName \ >

< subscriptionList >

每个主题只能有一个订阅。请手动确保您的主题没有多个订阅。

CF_GCP_AUTHENTICATION

请提供以下所有信息:

或不提供任何一个以使用默认值

用于使用GCP资源进行身份验证的GCP凭证提供程序链。

CF_GCP_LABELS_COUNT_EXCEEDED

收到太多标签()用于GCP资源。每个资源的最大标签数

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

收到太多的资源标签()用于GCP资源。每个资源的最大资源标记计数是,因为资源标记存储为资源上的GCP标签,并且Databricks特定的标记会消耗这个标签配额的一部分。

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

架构日志中的日志文件不完整

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

自动加载程序检查点中的元数据文件不完整

CF_INCORRECT_SQL_PARAMS

cloud_files方法接受两个必需的字符串参数:加载路径和文件格式。文件读取器选项必须在字符串键值映射中提供。例如cloud_files(“路径”、“json”地图(“option1”、“value1”))。收到:<参数>

CF_INVALID_ARN

无效ARN: < ARN >

CF_INVALID_CHECKPOINT

这个检查点不是一个有效的CloudFiles源

CF_INVALID_CLEAN_SOURCE_MODE

清洁源选项<值>的模式无效。

CF_INVALID_GCP_RESOURCE_TAG_KEY

无效的资源标签键用于GCP资源:\ \ > <关键.密钥必须以小写字母开头,长度范围为1 ~ 63个字符,只能包含小写字母、数字、“_”和“-”。

CF_INVALID_GCP_RESOURCE_TAG_VALUE

无效的GCP资源标签值:\ \ <值>.取值范围为0 ~ 63个字符,只能包含小写字母、数字、“_”和“-”。

CF_INVALID_SCHEMA_EVOLUTION_MODE

cloudFiles.<schemaEvolutionModeKey>

肯定是其中之一

“< addNewColumns >”“< failOnNewColumns >”“救援> <”“< noEvolution >”

CF_INVALID_SCHEMA_HINTS_OPTION

模式提示只能指定一个特定的列一次。

在本例中,重新定义column:

在schemaHints中多次:

< schemaHints >

CF_INVALID_SCHEMA_HINT_COLUMN

模式提示不能用于覆盖映射和数组的嵌套类型。

冲突列:

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

latestOffset应该在此源上使用ReadLimit调用。

CF_LOG_FILE_MALFORMED

日志文件格式错误:未能从读取正确的日志版本。

CF_MAX_MUST_BE_POSITIVE

Max必须是正的

CF_METADATA_FILE_CONCURRENTLY_USED

多个流查询同时使用

CF_MISSING_METADATA_FILE_ERROR

流源检查点目录中的元数据文件丢失。此元数据

文件包含流的重要默认选项,因此流不能重新启动

现在。请联系Databricks支持以获得帮助。

CF_MISSING_PARTITION_COLUMN_ERROR

分区列在提供的模式中不存在:

<模式>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

如果在使用文件通知模式时没有向CloudFiles源提供路径,请使用.schema()指定一个模式。或者,要让Auto Loader推断模式,请在.load()中提供一个基本路径。

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

发现主题的现有通知\ < topicName \ >在斗\ < bucketName \ >

通知、身份证

< notificationList >

为避免意外事件污染订阅者,请删除上述通知后重试。

CF_NEW_PARTITION_ERROR

从文件中推断出新的分区列:[]。请提供您的模式中的所有分区列,或者提供您想要提取值的分区列列表,使用:.option(" cloudFiles. exe ")。partitionColumns”、“{comma-separated-list |空字符串}”)

CF_PARTITON_INFERENCE_ERROR

试图推断当前批文件的分区模式时出错。请使用:.option(" cloudFiles. ")显式提供您的分区列。< partitionColumnOption >”、“{comma-separated-list}”)

CF_PATH_DOES_NOT_EXIST_FOR_SCHEMA_INFERENCE

输入路径时不能推断模式\ \ <路径>不存在。请确认输入路径存在,然后重试。

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

禁用异步回填后,不支持定时回填。可以通过设置启用异步回填/目录列表spark.databricks.cloudFiles.asyncDirListing为真

CF_PREFIX_MISMATCH

发现不匹配事件:key 没有前缀:

CF_PROTOCOL_MISMATCH

<消息>

如果您不需要对代码进行任何其他更改,那么请设置SQL

configuration: ' = '

继续您的流。请参阅:

<不再>

欲知详情。

CF_REGION_NOT_FOUND_ERROR

无法获取默认AWS区域。请使用cloudFiles指定一个区域。地区的选择。

CF_RESOURCE_SUFFIX_EMPTY

日志含义创建通知服务失败:资源后缀不能为空。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

创建通知服务失败:资源后缀只能包含字母数字、中划线(-)和下划线(_)。

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

创建通知服务失败:资源后缀只能包含小写字母、数字和“-”。

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

创建通知服务失败:资源后缀只能包含字母数字字符、连字符(-)、下划线(_)、句号(.)、波浪号(~)和百分号()。

CF_RESOURCE_SUFFIX_LIMIT

创建通知服务失败:资源后缀不能超过个字符。

CF_RESOURCE_SUFFIX_LIMIT_GCP

日志含义创建通知服务失败:资源后缀必须在之间。

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

发现受限的GCP资源标记键(\ \ > <关键).以下GCP资源标签键对Auto Loader是受限的:[]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

cloudFiles.cleanSource.retentionDuration不能大于cloudFiles.maxFileAge。

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

为主题创建通知失败:\ \ <主题>前缀:\ \ <前缀>.已经有一个主题具有相同的名称和另一个前缀:\ < oldPrefix \ >.尝试为安装程序使用不同的资源后缀或删除现有的安装程序。

CF_SOURCE_DIRECTORY_PATH_REQUIRED

请用选项提供源目录路径路径

CF_SOURCE_UNSUPPORTED

云文件源目前只支持S3, Azure Blob Storage (wasb/wasbs)和Azure Data Lake Gen1 (adl)和Gen2 (abfs/abfss)路径。路径:' < Path > ',解析uri: ' '

CF_THREAD_IS_DEAD

线程已死。

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

无法从源检查点位置派生流检查点位置:

CF_UNABLE_TO_DETECT_FILE_FORMAT

无法从采样文件中检测源文件格式,找到。请指定格式。

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

无法提取桶信息。路径:' < Path > ',解析uri: ' '。

CF_UNABLE_TO_EXTRACT_KEY_INFO

无法提取关键信息。路径:' < Path > ',解析uri: ' '。

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

无法提取存储帐户信息;路径:' < Path > ',解析uri: ' '

CF_UNABLE_TO_LIST_EFFICIENTLY

收到路径<路径>的目录重命名事件,但我们无法有效地列出该目录。为了继续流,设置选项“cloudFiles”。ignoreDirRenames '设为true,并考虑在cloudFiles中启用常规回填。backfillInterval该数据被处理的时间间隔。

CF_UNKNOWN_OPTION_KEYS_ERROR

发现未知选项键:

< optionList >

请确保所有提供的选项键都正确。如果你想跳过

验证您的选项并忽略这些未知选项,您可以设置:

选项“cloudFiles。< validateOptions >”“假”

CF_UNKNOWN_READ_LIMIT

Unknown ReadLimit: < ReadLimit >

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

format: 不支持模式推断。请指定模式。

CF_UNSUPPORTED_LOG_VERSION

UnsupportedLogVersion:最大支持的日志版本是v,但遇到v。日志文件是由DBR的新版本产生的,不能被该版本读取。请升级。

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

format: . Schema evolution mode 不支持。

CF_USE_DELTA_FORMAT

此语法不支持从Delta表中读取数据。如果您想从Delta中使用数据,请参考文档:读取Delta表(),或将Delta表作为流源读取()。来自Delta的流数据源已经针对增量数据消耗进行了优化。

地理空间

GEOJSON_PARSE_ERROR

错误解析GeoJSON: at position

H3_INVALID_CELL_ID

不是有效的H3单元ID

H3_INVALID_GRID_DISTANCE_VALUE

H3网格距离必须是非负的

H3_INVALID_RESOLUTION_VALUE

H3分辨率必须介于之间,包括

H3_NOT_ENABLED

被禁用或不支持。考虑启用Photon或切换到支持H3表达式的层

H3_PENTAGON_ENCOUNTERED_ERROR

在计算网格距离的十六进制环时遇到了一个五边形

H3_UNDEFINED_GRID_DISTANCE

之间的H3网格距离未定义

WKB_PARSE_ERROR

解析错误WKB: at position

WKT_PARSE_ERROR

解析错误WKT: at position