Skip to main content
大多数分析系统都支持从 S3 和 Parquet 格式导入数据。请参阅以下文档链接:

BigQuery

要将数据导入 BigQuery,请参阅从 Parquet 加载数据以及 Hive 分区加载

Snowflake

您可以通过遵循从云端文档加载将数据从 S3 加载到 Snowflake。

RedShift

您可以通过遵循AWS COPY 命令文档将数据从 S3 或 Parquet 复制到 Amazon Redshift。

Clickhouse

您可以直接在 Clickhouse 中查询 S3 / Parquet 格式的数据。例如,如果使用 GCS,您可以按如下方式查询数据:
SELECT count(distinct id) FROM s3('https://storage.googleapis.com/<bucket>/<prefix>/export_id=<export_id>/**',
 'access_key_id', 'access_secret', 'Parquet')
更多信息请参阅Clickhouse S3 集成文档

DuckDB

您可以使用 DuckDB 通过 SQL 在内存中查询 S3 中的数据。请参阅S3 导入文档