将数据导入Lakehouse的完整指南
概述
环境设置和测试数据生成
数据入仓:通过云器Lakehouse Studio 加载本地文件
数据入湖:通过ZettaPark PUT文件实现数据入湖的方式
数据入仓:通过云器Lakehouse Studio 批量加载(公网连接)
数据入仓:通过云器Lakehouse Studio 多表实时同步(CDC,公网连接)
数据入仓:通过云器Lakehouse Studio以SQL INSERT方式导入数据
数据入仓:通过Zettapark以SQL INSERT方式加载数据
数据入仓:通过Zettapark以SAVE_AS_TABLE方式加载数据
数据入仓:通过Java SDK批量和实时加载数据
数据入仓:使用Lakehouse Studio实时同步导入Kafka数据
数据入仓:使用Pipe持续导入Kafka数据
数据入仓:使用Pipe持续导入对象存储数据
数据入湖:通过云器Lakehouse Studio内置的Python节点从web加载文件入湖
数据入湖:通过数据库客户端DBV/SQLWorkbench PUT文件的方式
数据入仓:通过第三方工具