注
このページでは、ポリシー定義の JSON の例を使用します。 新しいポリシー フォームは、ドロップダウン メニューやその他の UI 要素を使用して、ほとんどの JSON ポリシー定義を難読化します。 ポリシー規則とロジックは引き続き同じですが、ユーザーは JSON コードを記述せずに定義を構成できます。 新しいフォームを使用しない場合は、ポリシー ページの上部にある [新しいフォーム ] 設定をオフに切り替えることができます。
このページは、使用可能なポリシー属性と制限の種類の一覧を含む、コンピューティング ポリシー定義のリファレンスです。 また、一般的なユース ケースで参照できるサンプル ポリシーもあります。
ポリシー定義とは
ポリシー定義は、JSON で表される個々のポリシー ルールです。
定義は、 Clusters API で制御される任意の属性にルールを追加できます。 たとえば、これらの定義では、既定の自動決定時間を設定し、ユーザーによるプールの使用を禁止し、Photon の使用を強制します。
{
"autotermination_minutes": {
"type": "unlimited",
"defaultValue": 4320,
"isOptional": true
},
"instance_pool_id": {
"type": "forbidden",
"hidden": true
},
"runtime_engine": {
"type": "fixed",
"value": "PHOTON",
"hidden": true
}
}
属性ごとに制限は 1 つだけあります。 属性のパスには、API 属性名が反映されます。 入れ子になった属性の場合、パスはドットを使用して入れ子になった属性名を連結します。 ポリシー定義で定義されていない属性は制限されません。
新しいポリシー フォームを使用してポリシー定義を構成する
新しいポリシー フォームでは、ドロップダウン メニューやその他の UI 要素を使用してポリシー定義を構成できます。 つまり、管理者はポリシー構文を学習したり参照したりする必要なく、ポリシーを記述できます。
JSON ポリシー定義は、新しい形式で引き続きサポートされます。 これらは、[詳細オプション] の [カスタム JSON] フィールドに追加できます。
新しいポリシー フォームを使用した既知の制限事項
新しいコンピューティング ポリシー フォームでポリシーがサポートされていない場合は、[ 詳細オプション ] セクションのカスタム JSON フィールドに互換性のない定義が表示されます。 以下のフィールドでは、有効なポリシーのサブセットのみがサポートされています。
-
workload_type: ポリシーは、
workload_type.clients.notebooksとworkload_type.clients.jobsの両方を定義する必要があります。 これらの各規則は、trueまたはfalseに固定する必要があります。 -
dbus_per_hour:
maxValueを指定し、minValueを指定しない範囲ポリシーのみがサポートされます。 -
ssh_public_keys: 固定ポリシーのみがサポートされています。
ssh_public_keysポリシーは、インデックスをスキップしてはなりません。 たとえば、ssh_public_keys.0、ssh_public_keys.1、ssh_public_keys.2は有効ですが、ssh_public_keys.0、ssh_public_keys.2、ssh_public_keys.3は無効です。 -
cluster_log_conf:
cluster_log_conf.pathを許可リストまたはブロックリストにすることはできません。 -
init_scripts: インデックス付きポリシー (つまり、
init_scripts.0.volumes.destination) を修正する必要があります。 ワイルドカード ポリシー (つまり、init_scripts.*.volumes.destination) は禁止する必要があります。 インデックス付きポリシーでは、インデックスをスキップしないでください。
サポートされている属性
ポリシーでは、 クラスター API で制御されるすべての属性がサポートされます。 属性に適用できる制限の種類は、その種類と UI 要素との関係によって設定によって異なる場合があります。 ポリシーを使用してコンピューティングのアクセス許可を定義することはできません。
ポリシーを使用して、1 時間あたりの最大 DBU とクラスターの種類を設定することもできます。 仮想属性のパスを参照してください。
次の表に、サポートされているポリシー属性のパスを示します。
| 属性パス | タイプ | 説明 |
|---|---|---|
autoscale.max_workers |
省略可能な数値 | 非表示にすると、最大ワーカー数フィールドが UI から削除されます。 |
autoscale.min_workers |
省略可能な数値 | 非表示の場合は、最小ワーカー番号フィールドを UI から削除します。 |
autotermination_minutes |
数値 | 値 0 は、自動終了を表しません。 非表示の場合は、UI から自動終了チェック ボックスと値入力を削除します。 |
azure_attributes.availability |
文字列 | コンピューティング使用量でオンデマンド インスタンスとスポット インスタンス (SPOT_AZURE、 ON_DEMAND_AZURE、または SPOT_WITH_FALLBACK_AZURE) のどちらを使用するかを制御します。 |
azure_attributes.first_on_demand |
数値 | ドライバー ノードから開始して、オンデマンド インスタンスを使用するクラスター ノードの数を制御します。 たとえば、 1 値を指定すると、ドライバー ノードがオンデマンドに設定されます。
2値を指定すると、ドライバー ノードと 1 つのワーカー ノードがオンデマンドに設定されます。 |
azure_attributes.spot_bid_max_price |
数値 | Azure スポット インスタンスの最大価格を制御します。 |
cluster_log_conf.path |
文字列 | ログ ファイルの宛先 URL。 |
cluster_log_conf.type |
文字列 | ログの宛先の種類。
DBFS と VOLUMES のみが許容される値です。 |
cluster_name |
文字列 | クラスター名。 |
custom_tags.* |
文字列 | タグ名を追加して、特定のタグ値を制御します (例: custom_tags.<mytag>)。 |
data_security_mode |
文字列 | クラスターのアクセス モードを設定します。 Unity カタログには、 SINGLE_USER または USER_ISOLATION (UI の標準 アクセス モード) が必要です。
NONEの値は、セキュリティ機能が有効になっていない場合を意味します。 |
docker_image.basic_auth.password |
文字列 | Databricks Container Services イメージ基本認証のパスワード。 |
docker_image.basic_auth.username |
文字列 | Databricks Container Services イメージ基本認証のユーザー名。 |
docker_image.url |
文字列 | Databricks Container Services イメージの URL を制御します。 非表示の場合は、UI から Databricks Container Services セクションを削除します。 |
driver_node_type_id |
省略可能な文字列 | 非表示にすると、UI からドライバー ノードの種類の選択が削除されます。 |
enable_local_disk_encryption |
ブーリアン | クラスターにローカルに接続されているディスクの暗号化を有効にするか、無効にするtrueをfalseに設定します (API を使用して指定)。 |
init_scripts.*.workspace.destination
init_scripts.*.volumes.destination
init_scripts.*.abfss.destination
init_scripts.*.file.destination
|
文字列 |
* は、属性配列内の init スクリプトのインデックスを参照します。
配列属性のポリシーの記述を参照してください。 |
instance_pool_id |
文字列 |
driver_instance_pool_idも定義されている場合はワーカー ノードによって使用されるプール、それ以外の場合はすべてのクラスター ノードに対して使用されるプールを制御します。 ワーカー ノードにプールを使用する場合は、ドライバー ノードのプールも使用する必要があります。 非表示の場合は、UI からプールの選択を削除します。 |
driver_instance_pool_id |
文字列 | 指定した場合は、ドライバー ノード用とワーカー ノード用のプールが異なります。 指定しない場合は、 instance_pool_idを継承します。 ワーカー ノードにプールを使用する場合は、ドライバー ノードのプールも使用する必要があります。 非表示の場合は、UI からドライバー プールの選択を削除します。 |
is_single_node |
ブーリアン |
trueに設定する場合、コンピューティングは単一ノードである必要があります。 この属性は、ユーザーが 単純なフォームを使用する場合にのみサポートされます。 |
node_type_id |
文字列 | 非表示にすると、ワーカー ノードの種類の選択が UI から削除されます。 |
num_workers |
省略可能な数値 | 非表示の場合は、UI からワーカー番号の指定を削除します。 |
runtime_engine |
文字列 | クラスターで Photon を使用するかどうかを決定します。 指定できる値は PHOTON または STANDARD です。 |
single_user_name |
文字列 | コンピューティング リソースに割り当てることができるユーザーまたはグループを制御します。 |
spark_conf.* |
省略可能な文字列 | 構成キー名を追加して、特定の構成値を制御します (例: spark_conf.spark.executor.memory)。 |
spark_env_vars.* |
省略可能な文字列 | 環境変数を追加して、特定の Spark 環境変数の値を制御します (例: spark_env_vars.<environment variable name>)。 |
spark_version |
文字列 | API (Databricks ランタイム) で指定された Spark イメージのバージョン名。 Databricks ランタイムを動的に選択する特別なポリシー値を使用することもできます。 Databricks ランタイムの選択に関する特別なポリシー値を参照してください。 |
use_ml_runtime |
ブーリアン | Databricks ランタイムの ML バージョンを使用する必要があるかどうかを制御します。 この属性は、ユーザーが 単純なフォームを使用する場合にのみサポートされます。 |
workload_type.clients.jobs |
ブーリアン | コンピューティング リソースをジョブに使用できるかどうかを定義します。 「ジョブでコンピューティングが使用されないようにする」を参照してください。 |
workload_type.clients.notebooks |
ブーリアン | コンピューティング リソースをノートブックで使用できるかどうかを定義します。 「ジョブでコンピューティングが使用されないようにする」を参照してください。 |
仮想属性のパス
この表には、ポリシーでサポートされる 2 つの追加の合成属性が含まれています。 新しいポリシー フォームを使用する場合は、[ 詳細オプション ] セクションでこれらの属性を設定できます。
| 属性パス | タイプ | 説明 |
|---|---|---|
dbus_per_hour |
数値 | ドライバー ノードを含め、リソースが時間単位で使用できる最大 DBU を表す計算属性。 このメトリックは、個々のコンピューティング レベルでコストを直接制御する方法です。 範囲の制限付きで使用します。 |
cluster_type |
文字列 | 作成できるクラスターの種類を表します。
指定した種類のコンピューティングをポリシーから作成することを許可またはブロックします。 all-purpose値が許可されていない場合、ポリシーは汎用のコンピューティング作成 UI には表示されません。
job値が許可されていない場合、ポリシーはジョブの作成コンピューティング UI に表示されません。 |
Databricks ランタイムの選択に関する特別なポリシー値
spark_version属性は、サポートされている Databricks Runtime バージョンの現在のセットに基づいて、Databricks Runtime バージョンに動的にマップされる特別な値をサポートします。
spark_version属性では、次の値を使用できます。
-
auto:latest: 最新の GA Databricks ランタイム バージョンにマップされます。 -
auto:latest-ml: 最新の GA Databricks ランタイム ML バージョンにマップされます。 -
auto:latest-lts: 最新の長期サポート (LTS) Databricks ランタイム バージョンにマップされます。 -
auto:latest-lts-ml: 最新の LTS Databricks ランタイム ML バージョンにマップされます。 -
auto:prev-major: 2 番目に新しい GA Databricks ランタイム バージョンにマップされます。 たとえば、auto:latestが 14.2 の場合、auto:prev-majorは 13.3 です。 -
auto:prev-major-ml: 2 番目に新しい GA Databricks ランタイム ML バージョンにマップされます。 たとえば、auto:latestが 14.2 の場合、auto:prev-majorは 13.3 です。 -
auto:prev-lts: 2 番目に新しい LTS Databricks ランタイム バージョンにマップされます。 たとえば、auto:latest-ltsが 13.3 の場合、auto:prev-ltsは 12.2 です。 -
auto:prev-lts-ml: 2 番目に新しい LTS Databricks ランタイム ML バージョンにマップされます。 たとえば、auto:latest-ltsが 13.3 の場合、auto:prev-ltsは 12.2 です。
注
これらの値を使用しても、新しいランタイム バージョンがリリースされたときにコンピューティングが自動更新されることはありません。 ユーザーは、変更する Databricks Runtime バージョンのコンピューティングを明示的に編集する必要があります。
サポートされているポリシーの種類
このセクションには、使用可能な各ポリシーの種類のリファレンスが含まれています。 ポリシーの種類には、固定ポリシーと制限ポリシーの 2 つのカテゴリがあります。
固定されたポリシーにより、属性に対するユーザー構成ができません。 固定ポリシーの 2 種類は次のとおりです。
ポリシーを制限すると、属性を構成するためのユーザーのオプションが制限されます。 ポリシーを制限することで、既定値を設定し、属性を省略可能にすることもできます。 追加の制限ポリシー フィールドを参照してください。
ポリシーを制限するオプションは次のとおりです。
ポリシーを修正しました
固定されたポリシーは、属性を指定された値に制限します。 数値とブール値以外の属性値の場合、値は文字列で表されるか、文字列に変換できる必要があります。
固定ポリシーでは、 hidden フィールドを true に設定することで、UI から属性を非表示にすることもできます。
interface FixedPolicy {
type: "fixed";
value: string | number | boolean;
hidden?: boolean;
}
このポリシー例では、Databricks ランタイムのバージョンを修正し、ユーザーの UI からフィールドを非表示にします。
{
"spark_version": { "type": "fixed", "value": "auto:latest-lts", "hidden": true }
}
禁止されたポリシー
禁止されたポリシーを使用すると、ユーザーは属性を構成できなくなります。 禁止されているポリシーは、オプションの属性とのみ互換性があります。
interface ForbiddenPolicy {
type: "forbidden";
}
このポリシーでは、ワーカー ノードのコンピューティングへのプールのアタッチを禁止します。
driver_instance_pool_idはポリシーを継承するため、ドライバー ノードのプールも禁止されています。
{
"instance_pool_id": { "type": "forbidden" }
}
許可リスト ポリシー
許可リスト ポリシーは、属性を構成するときにユーザーが選択できる値の一覧を指定します。
interface AllowlistPolicy {
type: "allowlist";
values: (string | number | boolean)[];
defaultValue?: string | number | boolean;
isOptional?: boolean;
}
この許可リストの例では、ユーザーは 2 つの Databricks Runtime バージョンから選択できます。
{
"spark_version": { "type": "allowlist", "values": ["13.3.x-scala2.12", "12.2.x-scala2.12"] }
}
ブロックリスト ポリシー
ブロックリスト ポリシーには、許可されていない値が一覧表示されます。 値は完全に一致する必要があるため、このポリシーは、属性が値の表現方法に時間がかかる場合 (先頭と末尾のスペースを許可するなど) に期待どおりに動作しない可能性があります。
interface BlocklistPolicy {
type: "blocklist";
values: (string | number | boolean)[];
defaultValue?: string | number | boolean;
isOptional?: boolean;
}
この例では、ユーザーが Databricks ランタイムとして 7.3.x-scala2.12 を選択できないようにします。
{
"spark_version": { "type": "blocklist", "values": ["7.3.x-scala2.12"] }
}
正規表現ポリシー
正規表現ポリシーでは、使用可能な値を正規表現と一致するものに制限します。 安全のため、正規表現が文字列値の先頭と末尾に固定されていることを確認します。
interface RegexPolicy {
type: "regex";
pattern: string;
defaultValue?: string | number | boolean;
isOptional?: boolean;
}
この例では、ユーザーが選択できる Databricks Runtime のバージョンを制限します。
{
"spark_version": { "type": "regex", "pattern": "13\\.[3456].*" }
}
範囲ポリシー
範囲ポリシーでは、 minValue フィールドと maxValue フィールドを使用して、指定した範囲に値を制限します。 値は 10 進数である必要があります。
数値の制限は、倍精度浮動小数点値として表せる必要があります。 特定の制限がないことを示すために、 minValue または maxValueを省略できます。
interface RangePolicy {
type: "range";
minValue?: number;
maxValue?: number;
defaultValue?: string | number | boolean;
isOptional?: boolean;
}
この例では、ワーカーの最大数を 10 に制限します。
{
"num_workers": { "type": "range", "maxValue": 10 }
}
無制限のポリシー
無制限ポリシーは、属性を必須にしたり、UI で既定値を設定したりするために使用されます。
interface UnlimitedPolicy {
type: "unlimited";
defaultValue?: string | number | boolean;
isOptional?: boolean;
}
次の例では、 COST_BUCKET タグをコンピューティングに追加します。
{
"custom_tags.COST_BUCKET": { "type": "unlimited" }
}
Spark 構成変数の既定値を設定し、それを省略 (削除) することもできます。
{
"spark_conf.spark.my.conf": { "type": "unlimited", "isOptional": true, "defaultValue": "my_value" }
}
追加の制限ポリシー フィールド
ポリシーの種類を制限する場合は、2 つの追加フィールドを指定できます。
-
defaultValue- 計算作成UIで自動的に入力される値。 -
isOptional- 属性の制限ポリシーによって、属性が自動的に必要になります。 属性を省略可能にするには、isOptionalフィールドをtrueに設定します。
注
既定値は、 Clusters API で作成されたコンピューティングには自動的に適用されません。 API を使用して既定値を適用するには、パラメーター apply_policy_default_values をコンピューティング定義に追加し、 trueに設定します。
このポリシー例では、ワーカー ノードのプールに id1 既定値を指定しますが、省略可能にします。 コンピューティングを作成するときに、別のプールを選択するか、使用しないことを選択できます。
driver_instance_pool_idがポリシーで定義されていない場合、またはコンピューティングを作成するときに、ワーカー ノードとドライバー ノードに同じプールが使用されます。
{
"instance_pool_id": { "type": "unlimited", "isOptional": true, "defaultValue": "id1" }
}
配列属性のポリシーの記述
配列属性のポリシーは、次の 2 つの方法で指定できます。
- すべての配列要素の一般的な制限。 これらの制限では、ポリシー パスで
*ワイルドカード記号を使用します。 - 特定のインデックスでの配列要素の特定の制限。 これらの制限では、パスに数値を使用します。
たとえば、配列属性 init_scriptsの場合、ジェネリック パスは init_scripts.* で始まり、特定のパスは init_scripts.<n> で始まります。ここで、 <n> は配列内の整数インデックス (0 から始まる) です。
ジェネリックと特定の制限を組み合わせることができます。この場合、ジェネリック制限は、特定の制限のない各配列要素に適用されます。 いずれの場合も、1 つのポリシー制限のみが適用されます。
次のセクションでは、配列属性を使用する一般的な例の例を示します。
特定の包含項目を要求する
順序を指定しないと、特定の値を必要とすることはできません。 例えば次が挙げられます。
{
"init_scripts.0.volumes.destination": {
"type": "fixed",
"value": "<required-script-1>"
},
"init_scripts.1.volumes.destination": {
"type": "fixed",
"value": "<required-script-2>"
}
}
リスト全体の固定値が必要
{
"init_scripts.0.volumes.destination": {
"type": "fixed",
"value": "<required-script-1>"
},
"init_scripts.*.volumes.destination": {
"type": "forbidden"
}
}
使用を完全に禁止する
{
"init_scripts.*.volumes.destination": {
"type": "forbidden"
}
}
特定の制限に従うエントリを許可する
{
"init_scripts.*.volumes.destination": {
"type": "regex",
"pattern": ".*<required-content>.*"
}
}
init スクリプトの特定のセットを修正する
init_scriptsパスの場合、配列には複数の構造体のいずれかを含めることができます。この構造体には、ユース ケースに応じてすべての可能なバリアントを処理する必要があります。 たとえば、特定の init スクリプトのセットを要求し、他のバージョンのバリアントを禁止するには、次のパターンを使用できます。
{
"init_scripts.0.volumes.destination": {
"type": "fixed",
"value": "<volume-paths>"
},
"init_scripts.1.volumes.destination": {
"type": "fixed",
"value": "<volume-paths>"
},
"init_scripts.*.workspace.destination": {
"type": "forbidden"
},
"init_scripts.*.abfss.destination": {
"type": "forbidden"
},
"init_scripts.*.file.destination": {
"type": "forbidden"
}
}
ポリシーの例
このセクションには、独自のポリシーを作成するための参照として使用できるポリシーの例が含まれています。 また、Azure Databricks で提供される ポリシー ファミリを 、一般的なポリシーユース ケースのテンプレートとして使用することもできます。
- 一般的なコンピューティング ポリシー
- Lakeflow 宣言型パイプラインの計算能力に制限を定義する
- シンプルな中規模のポリシー
- ジョブ専用ポリシー
- 外部メタストア ポリシー
- ジョブでコンピューティングが使用されないようにする
- 自動スケール ポリシーを削除する
- カスタム タグの適用
一般的なコンピューティング ポリシー
汎用コンピューティング ポリシーは、タグの要求、インスタンスの最大数の制限、タイムアウトの適用を行いながら、ユーザーをガイドし、一部の機能を制限することを目的としています。
{
"instance_pool_id": {
"type": "forbidden",
"hidden": true
},
"spark_version": {
"type": "regex",
"pattern": "12\\.[0-9]+\\.x-scala.*"
},
"node_type_id": {
"type": "allowlist",
"values": ["Standard_L4s", "Standard_L8s", "Standard_L16s"],
"defaultValue": "Standard_L16s_v2"
},
"driver_node_type_id": {
"type": "fixed",
"value": "Standard_L16s_v2",
"hidden": true
},
"autoscale.min_workers": {
"type": "fixed",
"value": 1,
"hidden": true
},
"autoscale.max_workers": {
"type": "range",
"maxValue": 25,
"defaultValue": 5
},
"autotermination_minutes": {
"type": "fixed",
"value": 30,
"hidden": true
},
"custom_tags.team": {
"type": "fixed",
"value": "product"
}
}
Lakeflow デクラレーティブ パイプラインの計算機能に制限を定義する
注
ポリシーを使用して Lakeflow 宣言型パイプライン コンピューティングを構成する場合、Databricks では、 default と maintenance の両方のコンピューティングに 1 つのポリシーを適用することをお勧めします。
パイプライン コンピューティングのポリシーを構成するには、 cluster_type フィールドを dlt に設定してポリシーを作成します。 次の例では、Lakeflow 宣言パイプライン コンピューティングの最小ポリシーを作成します。
{
"cluster_type": {
"type": "fixed",
"value": "dlt"
},
"num_workers": {
"type": "unlimited",
"defaultValue": 3,
"isOptional": true
},
"node_type_id": {
"type": "unlimited",
"isOptional": true
},
"spark_version": {
"type": "unlimited",
"hidden": true
}
}
シンプルな中規模のポリシー
ユーザーが最小限の構成で中規模のコンピューティングを作成できるようにします。 作成時に必要なフィールドはコンピューティング名のみです。残りは固定され、非表示になっています。
{
"instance_pool_id": {
"type": "forbidden",
"hidden": true
},
"spark_conf.spark.databricks.cluster.profile": {
"type": "forbidden",
"hidden": true
},
"autoscale.min_workers": {
"type": "fixed",
"value": 1,
"hidden": true
},
"autoscale.max_workers": {
"type": "fixed",
"value": 10,
"hidden": true
},
"autotermination_minutes": {
"type": "fixed",
"value": 60,
"hidden": true
},
"node_type_id": {
"type": "fixed",
"value": "Standard_L8s_v2",
"hidden": true
},
"driver_node_type_id": {
"type": "fixed",
"value": "Standard_L8s_v2",
"hidden": true
},
"spark_version": {
"type": "fixed",
"value": "auto:latest-ml",
"hidden": true
},
"custom_tags.team": {
"type": "fixed",
"value": "product"
}
}
ジョブ専用ポリシー
ユーザーがジョブを実行するジョブ コンピューティングを作成できるようにします。 ユーザーは、このポリシーを使用して汎用コンピューティングを作成することはできません。
{
"cluster_type": {
"type": "fixed",
"value": "job"
},
"dbus_per_hour": {
"type": "range",
"maxValue": 100
},
"instance_pool_id": {
"type": "forbidden",
"hidden": true
},
"num_workers": {
"type": "range",
"minValue": 1
},
"node_type_id": {
"type": "regex",
"pattern": "Standard_[DLS]*[1-6]{1,2}_v[2,3]"
},
"driver_node_type_id": {
"type": "regex",
"pattern": "Standard_[DLS]*[1-6]{1,2}_v[2,3]"
},
"spark_version": {
"type": "unlimited",
"defaultValue": "auto:latest-lts"
},
"custom_tags.team": {
"type": "fixed",
"value": "product"
}
}
外部メタストアのポリシー
管理者が定義したメタストアが既にアタッチされているコンピューティングを作成できます。 これは、ユーザーが追加の構成を必要とせずに独自のコンピューティングを作成できるようにする場合に便利です。
{
"spark_conf.spark.hadoop.javax.jdo.option.ConnectionURL": {
"type": "fixed",
"value": "jdbc:sqlserver://<jdbc-url>"
},
"spark_conf.spark.hadoop.javax.jdo.option.ConnectionDriverName": {
"type": "fixed",
"value": "com.microsoft.sqlserver.jdbc.SQLServerDriver"
},
"spark_conf.spark.databricks.delta.preview.enabled": {
"type": "fixed",
"value": "true"
},
"spark_conf.spark.hadoop.javax.jdo.option.ConnectionUserName": {
"type": "fixed",
"value": "<metastore-user>"
},
"spark_conf.spark.hadoop.javax.jdo.option.ConnectionPassword": {
"type": "fixed",
"value": "<metastore-password>"
}
}
ジョブでコンピューティングが使用されないようにする
このポリシーにより、ユーザーはコンピューティングを使用してジョブを実行できなくなります。 ユーザーはノートブックでのみコンピューティングを使用できます。
{
"workload_type.clients.notebooks": {
"type": "fixed",
"value": true
},
"workload_type.clients.jobs": {
"type": "fixed",
"value": false
}
}
自動スケール ポリシーを削除する
このポリシーは自動スケールを無効にし、ユーザーが特定の範囲内のワーカーの数を設定できるようにします。
{
"num_workers": {
"type": "range",
"maxValue": 25,
"minValue": 1,
"defaultValue": 5
}
}
カスタム タグの適用
コンピューティング タグ ルールをポリシーに追加するには、 custom_tags.<tag-name> 属性を使用します。
たとえば、このポリシーを使用するすべてのユーザーは、コンピューティングを起動するために、 COST_CENTER タグに 9999、9921、または 9531 を入力する必要があります。
{ "custom_tags.COST_CENTER": { "type": "allowlist", "values": ["9999", "9921", "9531"] } }