Lakehouse 引入了一项强大的功能,即通过 EXTERNAL SCHEMA 将外部数据库映射到 Lakehouse,使得用户能够在不迁移数据的情况下,直接在 Lakehouse 中查询外部数据。这一功能极大地提升了跨数据源操作和查询的便利性,为用户提供了更加灵活的数据集成解决方案。
使用限制
- 目前,云器 Lakehouse 的外部模式映射功能支持以下外部数据源:
- Hive on OSS(阿里云对象存储服务,支持读取和写入)
- Hive on COS(腾讯云对象存储服务,支持读取和写入)
- Hive on S3(AWS 对象存储服务,支持读取和写入)
- Hive on HDFS(Preview,请联系 Lakehouse 支持,仅支持读取)
- Databricks Unity Catalog
- 同时支持写入和读取。写入格式支持 Parquet、ORC、Text 文件格式。
创建 Hive External Schema
语法
创建存储连接
首先,您需要创建一个存储连接,以连接到外部对象存储服务。
CREATE STORAGE CONNECTION if not exists catalog_storage_oss
type OSS
ACCESS_ID='LTAIxxxxxxxxxxxx'
ACCESS_KEY='T8Gexxxxxxmtxxxxxx'
ENDPOINT='xxx';
创建 Hive Catalog 连接
接着,创建一个 Catalog 连接,指向 Hive 元数据存储服务(Hive Metastore)。
CREATE CATALOG CONNECTION if not exists connection_name
type hms
hive_metastore_uris='metastore_uris'
storage_connection='storage_connection';
创建 External Schema
最后,创建一个 External Schema,将外部数据源映射到 Lakehouse。
CREATE EXTERNAL SCHEMA if not exists schema_name
CONNECTION connection_name
options(SCHEMA='hive_database_name');
connection:必选参数,指定Catalog Connection的名称。
SCHEMA:可选参数,用于映射 Hive 的数据库名称。如果未指定,Lakehouse 将默认使用创建的 schema_name 名称与 Hive 中的数据库进行自动映射。
案例
案例一:Hive on OSS
CREATE STORAGE CONNECTION if not exists catalog_storage_oss
type OSS
ACCESS_ID='LTAIxxxxxxxxxxxx'
ACCESS_KEY='T8Gexxxxxxmtxxxxxx'
ENDPOINT='oss-cn-hangzhou-internal.aliyuncs.com';
- 创建 Catalog Connection
请确保 HMS 所在服务器网络与 Lakehouse 网络打通。具体打通方式可以参考 创建阿里云终端节点服务。
CREATE CATALOG CONNECTION if not exists catalog_api_connection
type hms
hive_metastore_uris='xxxx:9083'
storage_connection='catalog_storage_oss';
CREATE EXTERNAL SCHEMA if not exists my_external_schema
CONNECTION catalog_api_connection
options(SCHEMA='default');
--验证读取元数据
SHOW TABLES IN my_external_schema;
--验证读取数据,读取数据时会使用STORAGE CONNECTION权限读取
SELECT * FROM my_external_schema.my_table;
案例二:Hive on COS
CREATE STORAGE CONNECTION catalog_storage_cos
TYPE COS
ACCESS_KEY = '<access_key>'
SECRET_KEY = '<secret_key>'
REGION = 'ap-shanghai'
APP_ID = '1310000503';
参数:
-
TYPE:对象存储类型,腾讯云应填写 COS(大小写不限)。
-
ACCESS_KEY / SECRET_KEY:腾讯云的访问密钥,获取方式参考:访问密钥。
-
REGION:腾讯云对象存储 COS 的数据中心所在的地域。相同地域内云器 Lakehouse 访问腾讯云 COS 时,COS 服务将自动路由至内网访问。具体取值请参考腾讯云文档:地域和访问域名。
-
创建 Catalog Connection
请确保 HMS 所在服务器网络与 Lakehouse 网络打通。具体打通方式可以参考 创建腾讯云终端节点服务。
CREATE CATALOG CONNECTION if not exists catalog_api_connection
type hms
hive_metastore_uris='xxxx:9083'
storage_connection='catalog_storage_cos';
CREATE CATALOG CONNECTION if not exists catalog_api_connection
type hms
hive_metastore_uris='xxxx:9083'
storage_connection='catalog_storage_oss';
CREATE EXTERNAL SCHEMA if not exists my_external_schema
CONNECTION catalog_api_connection
options(SCHEMA='default');
--验证读取元数据
SHOW TABLES IN my_external_schema;
--验证读取数据,读取数据时会使用STORAGE CONNECTION权限读取
SELECT * FROM my_external_schema.my_table;
案例三:Hive on S3
CREATE STORAGE CONNECTION catalog_storage_s3
TYPE S3
ACCESS_KEY = 'AKIAQNBSBP6EIJE33***'
SECRET_KEY = '7kfheDrmq***************************'
ENDPOINT = 's3.cn-north-1.amazonaws.com.cn'
REGION = 'cn-north-1';
参数:
- TYPE:对象存储类型,AWS 应填写 S3(大小写不限)。
- ACCESS_KEY / SECRET_KEY:AWS 的访问密钥,获取方式参考:访问密钥。
- ENDPOINT:S3 的服务地址。AWS 中国区分为北京区和宁夏区,北京区的 S3 服务地址为
s3.cn-north-1.amazonaws.com.cn,宁夏区为 s3.cn-northwest-1.amazonaws.com.cn。可参考:中国区终端节点 分别找到北京区域和宁夏区域的终端节点 -> Amazon S3 对应的终端节点。
- REGION:AWS 中国区分为北京区和宁夏区,区域值为:北京区
cn-north-1,宁夏区 cn-northwest-1。可参考:中国区终端节点。
- 创建 Catalog Connection
CREATE CATALOG CONNECTION if not exists catalog_api_connection
type hms
hive_metastore_uris='xxxx:9083'
storage_connection='catalog_storage_s3';
CREATE EXTERNAL SCHEMA if not exists my_external_schema
CONNECTION catalog_api_connection
options(SCHEMA='default');
--验证读取元数据
SHOW TABLES IN my_external_schema;
--验证读取数据,读取数据时会使用STORAGE CONNECTION权限读取
SELECT * FROM my_external_schema.my_table;
案例四:Hive on HDFS(支持读取)
CREATE STORAGE CONNECTION hdfs_conn
TYPE HDFS
NAME_NODE='zetta-cluster'
NAME_NODE_RPC_ADDRESSES=['11.110.239.148:8020'];
TYPE HDFS:指定连接类型为 HDFS。
NAME_NODE:对应 HDFS 配置 中的 dfs.nameservices,是 HDFS 集群的逻辑名称,例如 zetta-cluster。
NAME_NODE_RPC_ADDRESSES:对应 HDFS 配置 中的 dfs.namenode.rpc-address,是 NameNode 的 RPC 地址,格式为 [<host>:<port>],例如 ['11.110.239.148:8020']。
- 创建 Catalog Connection
CREATE CATALOG CONNECTION if not exists catalog_api_connection
type hms
hive_metastore_uris='xxxx:9083'
storage_connection='hdfs_conn';
CREATE EXTERNAL SCHEMA if not exists my_external_schema
CONNECTION catalog_api_connection
options(SCHEMA='default');
--验证读取元数据
SHOW TABLES IN my_external_schema;
--验证读取数据,读取数据时会使用STORAGE CONNECTION权限读取
SELECT * FROM my_external_schema.my_table;
创建 Databricks External Schema
语法
创建 Databricks Catalog 连接
创建一个 Catalog 连接,指向 Databricks 元数据存储服务。具体使用参考 创建 Databricks Catalog。
CREATE CATALOG CONNECTION IF NOT EXISTS connection_name
TYPE databricks
HOST = 'host_value'
CLIENT_ID = 'client_id_value'
CLIENT_SECRET = 'client_secret_value'
ACCESS_REGION = 'access_region_value';
参数说明
connection_name:连接的名称,用于标识该 Databricks Unity Catalog 连接。名称需唯一且符合命名规范。
TYPE databricks:指定连接类型为 Databricks Unity Catalog。
HOST:Databricks 工作区的 URL 地址。通常格式为 https://<workspace-url>。示例:https://dbc-12345678-9abc.cloud.databricks.com
CLIENT_ID:用于 OAuth 2.0 机器对机器(M2M)认证的客户端 ID。参考 Databricks OAuth M2M 认证文档 创建 OAuth 2.0 应用,并获取 CLIENT_ID。
CLIENT_SECRET:用于 OAuth 2.0 机器对机器(M2M)认证的客户端密钥。参考 Databricks OAuth M2M 认证文档 创建 OAuth 2.0 应用,并获取 CLIENT_SECRET。
ACCESS_REGION:Databricks 工作区所在的区域(Region),例如 us-west-2 或 east-us。
创建 External Schema
CREATE EXTERNAL SCHEMA schema_name
CONNECTION connection_name
OPTIONS ('catalog'='catalog_value', 'schema'='schema_value');
参数说明
schema_name:外部模式的名称。该名称用于标识外部模式,需唯一且符合命名规范。
CONNECTION connection_name:指定与外部模式的连接。connection_name 是预先创建的连接名称,用于访问外部模式。
OPTIONS:指定外部模式的配置选项。
'catalog'='catalog_value':指定外部模式的 Catalog 名称。
'schema'='schema_value':指定外部模式的 Schema 名称。
示例
CREATE EXTERNAL SCHEMA external_db_sch
CONNECTION conn_db
OPTIONS ('catalog'='quick_start', 'schema'='default');
示例解析:
external_db_sch:创建的外部模式名称。
conn_db:用于连接外部模式的连接名称。
OPTIONS:
catalog='quick_start':指定外部模式的 Catalog 名称。
schema='default':指定外部模式的 Schema 名称。
- 验证是否连通 Databricks Unity Catalog
--验证读取元数据
SHOW TABLES IN external_db_sch;