メインコンテンツまでスキップ
バージョン: 2.1

EXPORT

説明

EXPORTコマンドは、指定されたTableからデータを指定された場所のファイルにエクスポートするために使用されます。現在、BrokerプロセスやS3プロトコル、HDFSプロトコルを通じて、HDFS、S3、BOS、COS(Tencent Cloud)などのリモートストレージへのエクスポートをサポートしています。

EXPORTは非同期操作です。このコマンドはEXPORT JOBをDorisに送信し、送信が成功するとすぐに戻ります。実行後の進捗状況を確認するには、SHOW EXPORTコマンドを使用できます。

構文:

EXPORT TABLE <table_name>
[ PARTITION ( <partation_name> [ , ... ] ) ]
[ <where_clause> ]
TO <export_path>
[ <properties> ]
WITH <target_storage>
[ <broker_properties> ];

必須パラメータ

1. <table_name>

エクスポートするTableの名前。DorisローカルTable、ビュー、およびカタログ外部Tableからのデータエクスポートをサポートします。

2. <export_path>

エクスポートファイルのパス。ディレクトリまたはhdfs://path/to/my_file_のようなファイルプレフィックス付きのファイルディレクトリを指定できます。

オプションパラメータ

1. <where_clause>

エクスポートするデータのフィルタ条件を指定できます。

2. <partation_name>

指定されたTableの特定のパーティションのみをエクスポートできます。DorisローカルTableでのみ有効です。

3. <properties>

一部のエクスポートパラメータを指定するために使用されます。

[ PROPERTIES ("<key>"="<value>" [, ... ]) ]

以下のパラメータを指定することができます:

  • label:このExportタスクのLabelを指定するオプションパラメータ。指定されない場合、システムがランダムにLabelを生成します。

  • column_separator:エクスポート時のカラム区切り文字を指定します。デフォルトは\tで、マルチバイトをサポートします。このパラメータはCSVファイル形式でのみ使用されます。

  • line_delimiter:エクスポート時の行区切り文字を指定します。デフォルトは\nで、マルチバイトをサポートします。このパラメータはCSVファイル形式でのみ使用されます。

  • columns:エクスポートTableの特定のカラムを指定します。

  • format:エクスポートジョブのファイル形式を指定します。サポート対象:parquet、orc、csv、csv_with_names、csv_with_names_and_types。デフォルトはCSV形式です。

  • max_file_size:エクスポートジョブの単一ファイルサイズ制限。結果がこの値を超える場合、複数のファイルに分割されます。max_file_sizeの値の範囲は[5MB, 2GB]で、デフォルトは1GBです。(orcファイル形式への出力を指定した場合、実際の分割ファイルサイズは64MBの倍数になります。例:max_file_size = 5MBを指定した場合は実際には64MBで分割され、max_file_size = 65MBを指定した場合は実際には128MBで分割されます)

  • parallelism:エクスポートジョブの並行性で、デフォルトは1です。エクスポートジョブはparallelism数のスレッドを開始してselect into outfile文を実行します。(Parallelismの数がTable内のTablets数より多い場合、システムは自動的にParallelismをTablets数のサイズに設定します。つまり、各select into outfile文は1つのTabletを担当します)

  • delete_existing_files:デフォルトはfalseです。trueとして指定された場合、export_pathで指定されたディレクトリ内のすべてのファイルが最初に削除され、その後そのディレクトリにデータがエクスポートされます。例:"export_path" = "/user/tmp"の場合、"/user/"下のすべてのファイルとディレクトリが削除されます;"file_path" = "/user/tmp/"の場合、"/user/tmp/"下のすべてのファイルとディレクトリが削除されます。

  • with_bom:デフォルトはfalseです。trueとして指定された場合、エクスポートされるファイルエンコーディングはBOM付きUTF8エンコーディングになります(csv関連ファイル形式でのみ有効)。

  • data_consistencynone / partitionに設定可能で、デフォルトはpartitionです。エクスポートTableをどの粒度で分割するかを示し、noneはTabletsレベル、partitionはPartitionレベルを表します。

  • timeout:エクスポートジョブのタイムアウト時間で、デフォルトは2時間、単位は秒です。

  • compress_type:(2.1.5以降でサポート)エクスポートファイル形式をParquet / ORC ファイルとして指定する場合、Parquet / ORC ファイルで使用される圧縮方式を指定することができます。Parquetファイル形式ではSNAPPY、GZIP、BROTLI、ZSTD、LZ4、PLAINの圧縮方式を指定でき、デフォルト値はSNAPPYです。ORCファイル形式ではPLAIN、SNAPPY、ZLIB、ZSTDの圧縮方式を指定でき、デフォルト値はZLIBです。このパラメータはバージョン2.1.5以降でサポートされています。(PLAINは無圧縮を意味します)

注意

delete_existing_filesパラメータを使用するには、fe.confに設定enable_delete_existing_files = trueを追加してfeを再起動する必要があり、その後delete_existing_filesが有効になります。delete_existing_files = trueは危険な操作であるため、テスト環境でのみ使用することを推奨します。

4. <target_storage> ストレージメディアで、BROKER、S3、HDFSがオプションです。

5. <broker_properties> <target_storage>の異なるストレージメディアに応じて、異なるプロパティを指定する必要があります。

  • BROKER Brokerプロセスを通じてリモートストレージにデータを書き込むことができます。ここでは、Brokerが使用する関連接続情報を定義する必要があります。

    WITH BROKER "broker_name"
    ("<key>"="<value>" [,...])

Broker関連のプロパティ:

  • username: ユーザー名

  • password: パスワード

  • hadoop.security.authentication: 認証方式をkerberosとして指定

  • kerberos_principal: kerberosプリンシパルを指定

  • kerberos_keytab: kerberosキータブファイルのパスを指定します。このファイルはBrokerプロセスが配置されているサーバー上のファイルへの絶対パスであり、Brokerプロセスがアクセス可能である必要があります

  • HDFS

    データはリモートHDFSに直接書き込むことができます。

    WITH HDFS ("<key>"="<value>" [,...])

HDFS関連プロパティ:

  • fs.defaultFS: namenodeのアドレスとポート
  • hadoop.username: HDFSユーザー名
  • dfs.nameservices: ネームサービス名、hdfs-site.xmlと一致させる
  • dfs.ha.namenodes.[nameservice ID]: namenodeのIDリスト、hdfs-site.xmlと一致させる
  • dfs.namenode.rpc-address.[nameservice ID].[name node ID]: Name nodeのrpcアドレス、namenode数と同じ数、hdfs-site.xmlと一致させる

kerberos認証が有効なHadoopクラスタの場合、以下の追加PROPERTIES属性を設定する必要があります:

  • dfs.namenode.kerberos.principal: HDFS namenodeサービスのプリンシパル名

  • hadoop.security.authentication: 認証方式をkerberosに設定

  • hadoop.kerberos.principal: DorisがHDFSに接続する際に使用するKerberosプリンシパルを設定

  • hadoop.kerberos.keytab: keytabのローカルファイルパスを設定

  • S3

    データはリモートのS3オブジェクトストレージに直接書き込むことができます。

    WITH S3 ("<key>"="<value>" [,...])

S3関連プロパティ:

  • s3.endpoint
  • s3.region
  • s3.secret_key
  • s3.access_key
  • use_path_style: (オプション)デフォルトはfalse。S3 SDKはデフォルトでVirtual-hosted Styleを使用します。ただし、一部のオブジェクトストレージシステムではVirtual-hosted Styleアクセスが有効化されていない、またはサポートされていない場合があります。この場合、use_path_styleパラメータを追加してPath Styleアクセスを強制的に使用できます。

戻り値

カラム名説明
jobIdlongエクスポートジョブの一意識別子。
labelstringエクスポートジョブのラベル。
dbIdlongデータベースの識別子。
tableIdlongTableの識別子。
statestringジョブの現在の状態。
pathstringエクスポートファイルのパス。
partitionsstringエクスポートされたパーティション名のリスト、複数のパーティション名はカンマで区切られます。
progressintエクスポートジョブの現在の進行状況(パーセンテージ)。
createTimeMsstringジョブ作成時刻のミリ秒値、日時形式でフォーマットされます。
exportStartTimeMsstringエクスポートジョブ開始時刻のミリ秒値、日時形式でフォーマットされます。
exportFinishTimeMsstringエクスポートジョブ終了時刻のミリ秒値、日時形式でフォーマットされます。
failMsgstringエクスポートジョブが失敗した際のエラーメッセージ。

アクセス制御

このSQLコマンドを実行するユーザーは、少なくとも以下の権限が必要です:

権限オブジェクト説明
SELECT_PRIVDatabaseデータベースとTableの読み取り権限が必要です。

注意事項

並行実行

Exportジョブはparallelismパラメータを設定して並行してデータをエクスポートできます。parallelismパラメータは実際にはEXPORTジョブを実行するスレッド数を指定します。"data_consistency" = "none"が設定されている場合、各スレッドはTableのTabletsの一部をエクスポートする責任を負います。

Exportジョブの基盤となる実行ロジックは実際にはSELECT INTO OUTFILE文です。parallelismパラメータで設定された各スレッドは独立したSELECT INTO OUTFILE文を実行します。

Exportジョブを複数のSELECT INTO OUTFILEに分割する具体的なロジック:Tableの全tabletsをすべての並列スレッドに均等に配分する、例えば:

  • num(tablets) = 40, parallelism = 3の場合、これら3つのスレッドはそれぞれ14、13、13個のtabletsを担当します。
  • num(tablets) = 2, parallelism = 3の場合、Dorisは自動的にparallelismを2に設定し、各スレッドが1つのtabletを担当します。

スレッドが担当するtabletsがmaximum_tablets_of_outfile_in_export値(デフォルトは10、fe.confにmaximum_tablets_of_outfile_in_exportパラメータを追加することで変更可能)を超える場合、そのスレッドは複数のSELECT INTO OUTFILE文に分割されます。例えば:

  • スレッドが14個のtabletsを担当し、maximum_tablets_of_outfile_in_export = 10の場合、このスレッドは2つのSELECT INTO OUTFILE文を担当します。最初のSELECT INTO OUTFILE文は10個のtabletsをエクスポートし、2番目のSELECT INTO OUTFILE文は4個のtabletsをエクスポートします。2つのSELECT INTO OUTFILE文はこのスレッドによって順次実行されます。

エクスポートするデータ量が非常に大きい場合、parallelismパラメータを適切に増加させて並行エクスポートを増やすことを検討できます。マシンのコア数が不足しておりparallelismを増加できない一方で、エクスポートTableに多くのTabletsがある場合、maximum_tablets_of_outfile_in_exportを増加させてSELECT INTO OUTFILE文が担当するtablets数を増やすことを検討でき、これもエクスポートを高速化できます。

Partition単位でTableをエクスポートしたい場合、Exportプロパティ"data_consistency" = "partition"を設定できます。この場合、ExportタスクのConcurrentスレッドはPartition単位で複数のOutfile文に分割されます。異なるOutfile文は異なるPartitionsをエクスポートし、同じOutfile文によってエクスポートされるデータは同じPartitionに属している必要があります。例えば:"data_consistency" = "partition"を設定後

  • num(partition) = 40, parallelism = 3の場合、これら3つのスレッドはそれぞれ14、13、13個のPartitionsを担当します。
  • num(partition) = 2, parallelism = 3の場合、DorisはParallelismを自動的に2に設定し、各スレッドが1つのPartitionを担当します。

メモリ制限

通常、Exportジョブのクエリプランはscan-exportの2つの部分のみで、過度なメモリを必要とする計算ロジックは含まれません。そのため、通常はデフォルトのメモリ制限2GBで要件を満たすことができます。

しかし、クエリプランが同じBE上で非常に多くのTabletsをスキャンする必要がある場合や、Tabletデータのバージョンが多すぎる場合など、一部のシナリオではメモリ不足が発生する可能性があります。セッション変数exec_mem_limitを調整してメモリ使用制限を増加させることができます。

その他の注意事項

  • 大量のデータを一度にエクスポートすることは推奨されません。1つのExportジョブの推奨最大エクスポートデータ量は数十GBです。エクスポートが大きすぎると、より多くのガベージファイルとより高い再試行コストが発生します。Tableデータ量が大きすぎる場合は、パーティション別にエクスポートすることを推奨します。

  • Exportジョブが失敗した場合、すでに生成されたファイルは削除されず、ユーザーが手動で削除する必要があります。

  • Exportジョブはデータをスキャンし、IOリソースを占有するため、システムクエリレイテンシに影響を与える可能性があります。

  • 現在Export中は、Tabletsバージョンが一致しているかどうかの簡単なチェックのみが実行されます。Export実行中はTableでデータインポート操作を実行しないことを推奨します。

  • Export Jobは最大2000個のパーティションをエクスポートできます。fe.confにパラメータmaximum_number_of_export_partitionsを追加してFEを再起動することで、この設定を変更できます。

ローカルへのデータエクスポート

ローカルファイルシステムにデータをエクスポートするには、fe.confenable_outfile_to_local=trueを追加してFEを再起動する必要があります。

  • TestTableの全データをローカルストレージにエクスポート、デフォルトでCSV形式ファイルをエクスポート
EXPORT TABLE test TO "file:///home/user/tmp/";
  • Test Tableの k1,k2 カラムをローカルストレージにエクスポートし、デフォルトで CSV ファイル形式でエクスポートして、Label を設定する
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"label" = "label1",
"columns" = "k1,k2"
);
  • Test Tableで k1 < 50 の行をローカルストレージにエクスポートし、デフォルトエクスポート CSV 形式ファイルを使用し、, を列区切り文字として使用する
EXPORT TABLE test WHERE k1 < 50 TO "file:///home/user/tmp/"
PROPERTIES (
"columns" = "k1,k2",
"column_separator"=","
);
  • TestTableのパーティションp1,p2をローカルストレージにエクスポートし、デフォルトでcsvフォーマットファイルを出力する
EXPORT TABLE test PARTITION (p1,p2) TO "file:///home/user/tmp/" 
PROPERTIES ("columns" = "k1,k2");
  • Test Table内のすべてのデータをローカルストレージにエクスポートし、他の形式のファイルをエクスポートする
-- parquet
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"columns" = "k1,k2",
"format" = "parquet"
);

-- orc
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"columns" = "k1,k2",
"format" = "orc"
);

-- csv(csv_with_names) , Use 'AA' as the column separator and 'zz' as the row separator
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"format" = "csv_with_names",
"column_separator"="AA",
"line_delimiter" = "zz"
);

-- csv(csv_with_names_and_types)
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"format" = "csv_with_names_and_types"
);
  • max_file_sizesプロパティを設定する
    エクスポートされたファイルが5MBより大きい場合、データは複数のファイルに分割され、各ファイルは最大5MBになります。
-- When the exported file is larger than 5MB, the data will be split into multiple files, with each file having a maximum size of 5MB.
EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"format" = "parquet",
"max_file_size" = "5MB"
);

parallelismプロパティを設定する

EXPORT TABLE test TO "file:///home/user/tmp/"
PROPERTIES (
"format" = "parquet",
"max_file_size" = "5MB",
"parallelism" = "5"
);
  • delete_existing_files プロパティを設定する
    Exportがデータをエクスポートする際、最初に /home/user/ ディレクトリ配下のすべてのファイルとディレクトリを削除し、その後このディレクトリにデータをエクスポートします。
-- When exporting data, all files and directories under the `/home/user/` directory will be deleted first, and then the data will be exported to this directory.
EXPORT TABLE test TO "file:///home/user/tmp"
PROPERTIES (
"format" = "parquet",
"max_file_size" = "5MB",
"delete_existing_files" = "true"
);

S3へのエクスポート

  • s3_testTableの全データをS3にエクスポートし、非表示文字\x07を列または行の区切り文字として使用します。minioにデータをエクスポートする必要がある場合は、use_path_style=trueも指定する必要があります。
EXPORT TABLE s3_test TO "s3://bucket/a/b/c" 
PROPERTIES (
"column_separator"="\\x07",
"line_delimiter" = "\\x07"
) WITH S3 (
"s3.endpoint" = "xxxxx",
"s3.region" = "xxxxx",
"s3.secret_key"="xxxx",
"s3.access_key" = "xxxxx"
)

HDFSへのエクスポート

  • TestTableの全データをHDFSにエクスポートします。エクスポートファイル形式はParquet、エクスポートジョブの単一ファイルサイズ制限は512MB、すべてのファイルを指定されたディレクトリに保持します。
EXPORT TABLE test TO "hdfs://hdfs_host:port/a/b/c/" 
PROPERTIES(
"format" = "parquet",
"max_file_size" = "512MB",
"delete_existing_files" = "false"
)
with HDFS (
"fs.defaultFS"="hdfs://hdfs_host:port",
"hadoop.username" = "hadoop"
);

Broker Node経由でのエクスポート

最初にBrokerプロセスを開始し、このBrokerをFEに追加する必要があります。

  • TestTableのすべてのデータをHDFSにエクスポートする
EXPORT TABLE test TO "hdfs://hdfs_host:port/a/b/c" 
WITH BROKER "broker_name"
(
"username"="xxx",
"password"="yyy"
);
  • testTblTableのパーティションp1、p2をHDFSにエクスポートし、","を列区切り文字として使用し、Labelを指定する
EXPORT TABLE testTbl PARTITION (p1,p2) TO "hdfs://hdfs_host:port/a/b/c" 
PROPERTIES (
"label" = "mylabel",
"column_separator"=","
)
WITH BROKER "broker_name"
(
"username"="xxx",
"password"="yyy"
);
  • testTblTableのすべてのデータをHDFSにエクスポートし、不可視文字\x07を列または行の区切り文字として使用する。
EXPORT TABLE testTbl TO "hdfs://hdfs_host:port/a/b/c" 
PROPERTIES (
"column_separator"="\\x07",
"line_delimiter" = "\\x07"
)
WITH BROKER "broker_name"
(
"username"="xxx",
"password"="yyy"
)