リソースの作成
説明
このステートメントはリソースを作成するために使用されます。rootまたはadminユーザーのみがリソースを作成できます。現在、Spark、ODBC、S3の外部リソースをサポートしています。 将来的には、クエリ用のSpark/GPU、外部ストレージ用のHDFS/S3、ETL用のMapReduceなど、その他の外部リソースがDorisに追加される可能性があります。
構文
CREATE [EXTERNAL] RESOURCE "<resource_name>"
PROPERTIES (
`<property>`
[ , ... ]
);
パラメータ
1.<type>
<property>は<key> = <value>形式で指定し、<key>の利用可能な具体的な値は以下のとおりです:
| Parameter | デスクリプション | Required |
|---|---|---|
<type> | リソースのタイプを指定します。サポートされているタイプ:spark/odbc_catalog/s3/jdbc/hdfs/hms/es。 | Y |
<type>に応じて、PROPERTIESのパラメータは変わります。詳細については例を参照してください。
例
1. yarnクラスターモードでspark0という名前のSparkリソースを作成する。
CREATE EXTERNAL RESOURCE "spark0"
PROPERTIES
(
"type" = "spark",
"spark.master" = "yarn",
"spark.submit.deployMode" = "cluster",
"spark.jars" = "xxx.jar,yyy.jar",
"spark.files" = "/tmp/aaa,/tmp/bbb",
"spark.executor.memory" = "1g",
"spark.yarn.queue" = "queue0",
"spark.hadoop.yarn.resourcemanager.address" = "127.0.0.1:9999",
"spark.hadoop.fs.defaultFS" = "hdfs://127.0.0.1:10000",
"working_dir" = "hdfs://127.0.0.1:10000/tmp/doris",
"broker" = "broker0",
"broker.username" = "user0",
"broker.password" = "password0"
);
Spark関連のパラメータは以下の通りです:
- spark.master: 必須、現在はyarn、spark://host:portをサポートしています。
- spark.submit.deployMode: Sparkプログラムのデプロイメントモード、必須、clusterとclientの両方をサポートします。
- spark.hadoop.yarn.resourcemanager.address: masterがyarnの場合に必須。
- spark.hadoop.fs.defaultFS: masterがyarnの場合に必須。
- その他のパラメータはオプションです。こちらを参照してください。
SparkをETLに使用する場合、working_dirとbrokerを指定する必要があります。以下に説明します:
- working_dir: ETLで使用されるディレクトリ。sparkをETLリソースとして使用する場合に必須。例:hdfs://host:port/tmp/doris。
- broker: broker名。sparkをETLリソースとして使用する場合に必須。
ALTER SYSTEM ADD BROKERコマンドを使用して事前に設定する必要があります。 - broker.property_key: ETLによって生成された中間ファイルを読み取る際にbrokerが指定する必要がある認証情報。
2. ODBCリソースの作成
CREATE EXTERNAL RESOURCE `oracle_odbc`
PROPERTIES (
"type" = "odbc_catalog",
"host" = "192.168.0.1",
"port" = "8086",
"user" = "test",
"password" = "test",
"database" = "test",
"odbc_type" = "oracle",
"driver" = "Oracle 19 ODBC driver"
);
ODBCの関連パラメータは以下の通りです:
- hosts: 外部データベースのIPアドレス
- driver: ODBCの外観のドライバー名で、be/conf/odbcinst.ini内のDriver名と同じである必要があります。
- odbc_type: 外部データベースのタイプで、現在oracle、mysql、postgresqlをサポートしています
- user: 外部データベースのユーザー名
- password: 対応するユーザーのパスワード情報
- charset: 接続文字セット
- ODBC Driverごとのカスタムパラメータの実装もサポートされています。対応するODBC Driverの説明を参照してください
3. S3リソースの作成
CREATE RESOURCE "remote_s3"
PROPERTIES
(
"type" = "s3",
"s3.endpoint" = "bj.s3.com",
"s3.region" = "bj",
"s3.access_key" = "bbb",
"s3.secret_key" = "aaaa",
-- the followings are optional
"s3.connection.maximum" = "50",
"s3.connection.request.timeout" = "3000",
"s3.connection.timeout" = "1000"
);
S3リソースがコールドホット分離に使用される場合、より多くの必須フィールドを追加する必要があります。
CREATE RESOURCE "remote_s3"
PROPERTIES
(
"type" = "s3",
"s3.endpoint" = "bj.s3.com",
"s3.region" = "bj",
"s3.access_key" = "bbb",
"s3.secret_key" = "aaaa",
-- required by cooldown
"s3.root.path" = "/path/to/root",
"s3.bucket" = "test-bucket"
);
S3関連パラメータは以下のとおりです:
- 必須パラメータ
s3.endpoint: s3エンドポイントs3.region:s3リージョンs3.root.path: s3ルートディレクトリs3.access_key: s3アクセスキーs3.secret_key: s3シークレットキーs3.bucket:s3バケット
- オプションパラメータ
s3.connection.maximum: s3接続の最大数、デフォルトは50s3.connection.request.timeout: s3リクエストタイムアウト、ミリ秒単位、デフォルトは3000s3.connection.timeout: s3接続タイムアウト、ミリ秒単位、デフォルトは1000
DorisはS3 Resourceの作成において`AWS Assume Role`もサポートしています。AWS intergrationを参照してください。
4. JDBCリソースの作成
CREATE RESOURCE mysql_resource PROPERTIES (
"type"="jdbc",
"user"="root",
"password"="123456",
"jdbc_url" = "jdbc:mysql://127.0.0.1:3316/doris_test?useSSL=false",
"driver_url" = "https://doris-community-test-1308700295.cos.ap-hongkong.myqcloud.com/jdbc_driver/mysql-connector-java-8.0.25.jar",
"driver_class" = "com.mysql.cj.jdbc.Driver"
);
JDBC関連のパラメータは以下の通りです:
- user:データベースへの接続に使用するユーザー名
- password:データベースへの接続に使用するパスワード
- jdbc_url: 指定されたデータベースへの接続に使用する識別子
- driver_url: JDBCドライバーパッケージのurl
- driver_class: JDBCドライバーのclass
5. HDFSリソースを作成する
CREATE RESOURCE hdfs_resource PROPERTIES (
"type"="hdfs",
"hadoop.username"="user",
"dfs.nameservices" = "my_ha",
"dfs.ha.namenodes.my_ha" = "my_namenode1, my_namenode2",
"dfs.namenode.rpc-address.my_ha.my_namenode1" = "nn1_host:rpc_port",
"dfs.namenode.rpc-address.my_ha.my_namenode2" = "nn2_host:rpc_port",
"dfs.client.failover.proxy.provider.my_ha" = "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
);
HDFS関連のパラメータは以下の通りです:
- fs.defaultFS: namenodeアドレスとポート
- hadoop.username: hdfsユーザー名
- dfs.nameservices: hadoopでHAを有効にしている場合は、fsネームサービスを設定してください。hdfs-site.xmlを参照してください
- dfs.ha.namenodes.[nameservice ID]:ネームサービス内の各NameNodeの一意識別子。hdfs-site.xmlを参照してください
- dfs.namenode.rpc-address.[nameservice ID].[name node ID]`:各NameNodeがリッスンする完全修飾RPCアドレス。hdfs-site.xmlを参照してください
- dfs.client.failover.proxy.provider.[nameservice ID]:HDFSクライアントがアクティブNameNodeに接続するために使用するJavaクラス。通常はorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProviderです
6. HMSリソースの作成
HMSリソースはhmsカタログの作成に使用されます
CREATE RESOURCE hms_resource PROPERTIES (
'type'='hms',
'hive.metastore.uris' = 'thrift://127.0.0.1:7004',
'dfs.nameservices'='HANN',
'dfs.ha.namenodes.HANN'='nn1,nn2',
'dfs.namenode.rpc-address.HANN.nn1'='nn1_host:rpc_port',
'dfs.namenode.rpc-address.HANN.nn2'='nn2_host:rpc_port',
'dfs.client.failover.proxy.provider.HANN'='org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider'
);
HMS関連パラメータは以下の通りです:
- hive.metastore.uris: hive metastoreサーバーアドレス オプション:
- dfs.*: hiveデータがhdfs上にある場合、HDFSリソースパラメータを追加するか、hive-site.xmlをfe/confにコピーしてください。
- s3.*: hiveデータがs3上にある場合、S3リソースパラメータを追加してください。Aliyun Data Lake Formationを使用している場合は、hive-site.xmlをfe/confにコピーしてください。
7. ESリソースの作成
CREATE RESOURCE es_resource PROPERTIES (
"type"="es",
"hosts"="http://127.0.0.1:29200",
"nodes_discovery"="false",
"enable_keyword_sniff"="true"
);
ESに関連するパラメータは以下の通りです:
- hosts: ES接続アドレス、1つまたは複数のノード、load-balanceも受け入れられます
- user: ESのユーザー名
- password: ユーザーのパスワード
- enable_docvalue_scan: ES/Luceneカラムストレージを有効にしてクエリフィールドの値を取得するかどうか、デフォルトはtrueです
- enable_keyword_sniff: ESにおいて文字列の分割タイプtext.fieldsを調査するかどうか、keywordによってクエリします(デフォルトはtrueで、falseは分割後のコンテンツとマッチします)
- nodes_discovery: ESノードディスカバリーを有効にするかどうか、デフォルトはtrueです。ネットワーク分離では、このパラメータをfalseに設定してください。指定されたノードのみが接続されます
- http_ssl_enabled: ESクラスタがhttpsアクセスモードを有効にするかどうか、現在のFE/BE実装はすべてを信頼します