HDFS
この文書では、HDFSにアクセスするために必要なパラメータについて説明します。これらのパラメータは以下に適用されます:
- Catalogプロパティ
- Table Valued Functionプロパティ
- Broker Loadプロパティ
- Exportプロパティ
- Outfileプロパティ
- バックアップと復元
パラメータ概要
| プロパティ名 | 旧名称 | 説明 | デフォルト値 | 必須 |
|---|---|---|---|---|
| hdfs.authentication.type | hadoop.security.authentication | 認証タイプを指定します。オプション値はkerberosまたはsimpleです。kerberosが選択された場合、システムはKerberos認証を使用してHDFSと通信します。simpleを使用する場合は認証を使用しないことを意味し、オープンなHDFSクラスターに適しています。kerberosを選択する場合は、対応するprincipalとkeytabの設定が必要です。 | simple | いいえ |
| hdfs.authentication.kerberos.principal | hadoop.kerberos.principal | 認証タイプがkerberosの場合、Kerberos principalを指定します。Kerberos principalは、通常サービス名、ホスト名、ドメイン名を含む一意のID文字列です。 | - | いいえ |
| hdfs.authentication.kerberos.keytab | hadoop.kerberos.keytab | このパラメータはKerberos認証用のkeytabファイルパスを指定します。keytabファイルには暗号化された認証情報が格納されており、ユーザーが手動でパスワードを入力する必要なく、システムが自動的に認証を行うことができます。 | - | いいえ |
| hdfs.impersonation.enabled | - | trueの場合、HDFSの偽装機能を有効にします。core-site.xmlで設定されたproxyユーザーを使用して、DorisログインユーザーをproxyしてHDFS操作を実行します | まだサポートされていません | - |
| hadoop.username | - | 認証タイプがsimpleの場合、このユーザーがHDFSへのアクセスに使用されます。デフォルトでは、Dorisプロセスを実行しているLinuxシステムユーザーがアクセスに使用されます | - | - |
| hadoop.config.resources | - | HDFS設定ファイルディレクトリ(hdfs-site.xmlとcore-site.xmlを含む必要があります)を相対パスで指定します。デフォルトディレクトリは(FE/BE)デプロイメントディレクトリ下の/plugins/hadoop/conf/です(fe.conf/be.confのhadoop_config_dirを変更してデフォルトパスを変更できます)。すべてのFEおよびBEノードは同じ相対パスを設定する必要があります。例:hadoop/conf/core-site.xml,hadoop/conf/hdfs-site.xml | - | - |
| dfs.nameservices | - | HDFS高可用性クラスターパラメータを手動で設定します。hadoop.config.resources設定を使用している場合、パラメータはhdfs-site.xmlから自動的に読み込まれます。以下のパラメータと組み合わせて使用する必要があります:dfs.ha.namenodes.your-nameservice、dfs.namenode.rpc-address.your-nameservice.nn1、dfs.client.failover.proxy.providerなど。 | - | - |
3.1より前のバージョンについては、旧名称をご使用ください。
認証設定
HDFSは2つの認証方法をサポートします:
- Simple
- Kerberos
Simple認証
Simple認証は、Kerberosを有効にしていないHDFSクラスターに適しています。
Simple認証を使用する場合、以下のパラメータを設定するか、直接デフォルト値を使用できます:
"hdfs.authentication.type" = "simple"
Simple認証モードでは、hadoop.usernameパラメータを使用してユーザー名を指定できます。指定されていない場合は、現在のプロセスのユーザー名がデフォルトになります。
例:
lakersユーザー名を使用してHDFSにアクセスする
"hdfs.authentication.type" = "simple",
"hadoop.username" = "lakers"
デフォルトシステムユーザーを使用してHDFSにアクセスする
"hdfs.authentication.type" = "simple"
Kerberos 認証
Kerberos認証は、Kerberosが有効になっているHDFSクラスターに適しています。
Kerberos認証を使用する場合、以下のパラメータを設定する必要があります:
"hdfs.authentication.type" = "kerberos",
"hdfs.authentication.kerberos.principal" = "<your_principal>",
"hdfs.authentication.kerberos.keytab" = "<your_keytab>"
Kerberos認証モードでは、Kerberosプリンシパルとkeytabファイルパスを設定する必要があります。
Dorisはhdfs.authentication.kerberos.principalプロパティで指定されたアイデンティティでHDFSにアクセスし、keytabで指定されたkeytabを使用してPrincipalを認証します。
注意:
keytabファイルは、すべてのFEおよびBEノードに同じパスで存在する必要があり、Dorisプロセスを実行するユーザーはkeytabファイルに対する読み取り権限を持つ必要があります。
例:
"hdfs.authentication.type" = "kerberos",
"hdfs.authentication.kerberos.principal" = "hdfs/hadoop@HADOOP.COM",
"hdfs.authentication.kerberos.keytab" = "/etc/security/keytabs/hdfs.keytab",
Kerberos設定の一般的な問題のトラブルシューティングについては、Kerberos FAQを参照してください。
HDFS HA 構成
HDFS HAモードが有効になっている場合、dfs.nameservices関連のパラメータを設定する必要があります:
'dfs.nameservices' = '<your-nameservice>',
'dfs.ha.namenodes.<your-nameservice>' = '<nn1>,<nn2>',
'dfs.namenode.rpc-address.<your-nameservice>.<nn1>' = '<nn1_host:port>',
'dfs.namenode.rpc-address.<your-nameservice>.<nn2>' = '<nn2_host:port>',
'dfs.client.failover.proxy.provider.<your-nameservice>' = 'org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider',
'dfs.nameservices' = 'nameservice1',
'dfs.ha.namenodes.nameservice1' = 'nn1,nn2',
'dfs.namenode.rpc-address.nameservice1.nn1' = '172.21.0.2:8088',
'dfs.namenode.rpc-address.nameservice1.nn2' = '172.21.0.3:8088',
'dfs.client.failover.proxy.provider.nameservice1' = 'org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider',
設定ファイル
この機能はバージョン3.1.0以降でサポートされています
DorisはHDFS設定ファイルディレクトリをhadoop.config.resourcesパラメータを通じて指定することをサポートしています。
設定ファイルディレクトリにはhdfs-site.xmlおよびcore-site.xmlファイルが含まれている必要があります。デフォルトディレクトリは(FE/BE)デプロイメントディレクトリ下の/plugins/hadoop_conf/です。すべてのFEおよびBEノードは同じ相対パスを設定する必要があります。
設定ファイルにこのドキュメントで言及された上記のパラメータが含まれている場合、ユーザーが明示的に設定したパラメータが優先されます。設定ファイルは複数のファイルを指定でき、hadoop/conf/core-site.xml,hadoop/conf/hdfs-site.xmlのようにカンマで区切られます。
例:
-- Multiple configuration files
'hadoop.config.resources'='hdfs-cluster-1/core-site.xml,hdfs-cluster-1/hdfs-site.xml'
-- Single configuration file
'hadoop.config.resources'='hdfs-cluster-2/hdfs-site.xml'
HDFS IO 最適化
場合によっては、HDFS の高負荷により HDFS 上のデータレプリカの読み取りに長時間かかることがあり、全体的なクエリ効率が低下する可能性があります。以下では、関連する最適化設定について紹介します。
Hedged Read
HDFS クライアント は Hedged Read 機能を提供しています。この機能は、読み取りリクエストが一定の閾値を超えても返らない場合に、同じデータを読み取る別の読み取りスレッドを開始し、先に返ってきた方を使用することができます。
注意: この機能は HDFS クラスターの負荷を増加させる可能性があるため、慎重に使用してください。
以下の方法でこの機能を有効にできます:
"dfs.client.hedged.read.threadpool.size" = "128",
"dfs.client.hedged.read.threshold.millis" = "500"
-
dfs.client.hedged.read.threadpool.sizeHedged Readに使用されるスレッド数を表し、1つのHDFS Clientで共有されます。通常、1つのHDFSクラスターに対して、BEノードは1つのHDFS Clientを共有します。
-
dfs.client.hedged.read.threshold.millis読み取り閾値(ミリ秒)。読み取りリクエストがこの閾値を超えて応答しない場合、Hedged Readがトリガーされます。
有効化後、Query Profileで関連パラメータを確認できます:
-
TotalHedgedReadHedged Readが開始された回数。
-
HedgedReadWinsHedged Readが成功した回数(開始され、元のリクエストより高速に戻った回数)。
ここでの値は単一のHDFS Clientの累積値であり、単一クエリの値ではないことに注意してください。同じHDFS Clientが複数のクエリで再利用されます。
dfs.client.socket-timeout
dfs.client.socket-timeoutは、Hadoop HDFSのクライアント設定パラメータで、クライアントがDataNodeやNameNodeとの接続確立やデータ読み取り時のソケットタイムアウトを設定するために使用され、単位はミリ秒です。このパラメータのデフォルト値は通常60,000ミリ秒です。
このパラメータ値を減らすことで、ネットワーク遅延、DataNodeの応答遅延、または接続例外が発生した場合に、クライアントがより高速にタイムアウトし、再試行や他のノードへの切り替えが可能になります。これにより待機時間の短縮とシステム応答速度の向上に役立ちます。例えば、一部のテストでは、dfs.client.socket-timeoutをより小さな値(5000ミリ秒など)に設定することで、DataNodeの遅延や障害を迅速に検出し、長時間の待機を回避できます。
注意:
-
タイムアウトを小さく設定しすぎると、ネットワークの変動や高いノード負荷時に頻繁なタイムアウトエラーが発生し、タスクの安定性に影響する可能性があります。
-
実際のネットワーク環境とシステム負荷状況に基づいて、このパラメータ値を適切に調整し、応答速度とシステム安定性のバランスを取ることを推奨します。
-
このパラメータはクライアント設定ファイル(
hdfs-site.xmlなど)に設定して、クライアントがHDFSと通信する際に正しいタイムアウトを使用することを保証する必要があります。
まとめると、dfs.client.socket-timeoutパラメータを適切に設定することで、システムの安定性と信頼性を確保しながらI/O応答速度を向上させることができます。
HDFSアクセスポート要件(NameNode & DataNodeのみ)
DorisがHDFSにアクセスするために必要なポートは以下の通りです:
| Service | Port Purpose | Default Port | Protocol |
|---|---|---|---|
| NameNode | RPC (client/metadata access) | 8020 | TCP |
| DataNode | Data transfer (block I/O) | 9866 | TCP |
注意:
- ポートは
core-site.xmlとhdfs-site.xmlでカスタマイズされる場合があります。実際の設定を使用してください。 - Kerberos認証が有効な場合、DorisはKerberos KDCサービスにも到達できる必要があります。KDCはデフォルトでTCPポート88をリッスンしますが、実際のポートはKDC設定に従う必要があります。
HDFSのデバッグ
Hadoop環境の設定は複雑で、場合によっては接続性の問題やアクセス性能の低下が発生することがあります。以下は、ユーザーが接続性の問題と基本的な性能問題を迅速にトラブルシューティングするためのサードパーティツールです。
HDFS クライアント
これら2つのツールは、HDFS接続性と読み取り性能を迅速に検証するために使用できます。それらのHadoop依存関係の大部分はDoris自身のHadoop依存関係と同じであるため、DorisのHDFSアクセスシナリオを最大限にシミュレートできます。
Java版はJavaを使用してHDFSにアクセスし、Doris FE側のHDFSアクセスロジックをシミュレートできます。
CPP版はC++でlibhdfsを呼び出してHDFSにアクセスし、Doris BE側のHDFSアクセスロジックをシミュレートできます。
具体的な使用方法については、各コードリポジトリのREADMEを参照してください。