重要
サブスクリプションが有効になっていない限り、新しい Azure Data Lake Analytics アカウントを作成できなくなります。 サブスクリプションを有効にする必要がある場合は、 サポートに連絡 し、ビジネス シナリオを提供してください。
既に Azure Data Lake Analytics を使用している場合は、2024 年 2 月 29 日までに組織の Azure Synapse Analytics への移行計画 を作成する必要があります。
この記事では、Azure portal を使用して Azure Data Lake Analytics アカウント、データ ソース、ユーザー、ジョブを管理する方法について説明します。
Data Lake Analytics アカウントを管理する
アカウントを作成する
- Azure portal にサインインします。
- [ リソースの作成] を 選択し、 Data Lake Analytics を検索します。
- 次の項目の値を選択します。
- 名前: Data Lake Analytics アカウントの名前。
- サブスクリプション: アカウントに使用される Azure サブスクリプション。
- リソース グループ: アカウントを作成する Azure リソース グループ。
- 場所: Data Lake Analytics アカウントの Azure データセンター。
- Data Lake Store: Data Lake Analytics アカウントに使用される既定のストア。 Azure Data Lake Store アカウントと Data Lake Analytics アカウントは、同じ場所にある必要があります。
- 作成を選択します。
Data Lake Analytics アカウントを削除する
Data Lake Analytics アカウントを削除する前に、既定の Data Lake Store アカウントを削除します。
- Azure portal で、Data Lake Analytics アカウントに移動します。
- [ 削除] を選択します。
- アカウント名を入力します。
- [ 削除] を選択します。
データ ソースの管理
Data Lake Analytics では、次のデータ ソースがサポートされています。
- Data Lake Store
- Azure Storage
データ エクスプローラーを使用して、データ ソースを参照し、基本的なファイル管理操作を実行できます。
データ ソースの追加
Azure portal で、Data Lake Analytics アカウントに移動します。
データ エクスプローラー を選択します。
[ データ ソースの追加] を選択します。
- Data Lake Store アカウントを追加するには、クエリを実行できるようにするには、アカウント名とアカウントへのアクセス権が必要です。
- Azure Blob Storage を追加するには、ストレージ アカウントとアカウント キーが必要です。 それらを見つけるには、ポータルでストレージ アカウントに移動し、アクセス キー 選択します。
ファイアウォール規則を設定する
Data Lake Analytics を使用して、Data Lake Analytics アカウントへのアクセスをさらにネットワーク レベルでロックダウンできます。 ファイアウォールを有効にしたり、IP アドレスを指定したり、信頼されたクライアントの IP アドレス範囲を定義したりできます。 これらのメジャーを有効にすると、定義された範囲内の IP アドレスを持つクライアントのみがストアに接続できます。
Azure Data Factory や VM などの他の Azure サービスが Data Lake Analytics アカウントに接続する場合は、[ Azure サービスを許可する ] が オンになっていることを確認します。
ファイアウォール規則を設定する
- Azure portal で、Data Lake Analytics アカウントに移動します。
- 左側のメニューで、[ファイアウォール 選択します。
新しいユーザーを追加します
ユーザーの追加ウィザードを使用すると、新しい Data Lake ユーザーを簡単に作成できます。
- Azure portal で、Data Lake Analytics アカウントに移動します。
- 左側の [ 作業の開始] で、[ ユーザーの追加ウィザード] を選択します。
- ユーザーを選択し、[選択] ボタンをクリックします。
- ロールを選んで、選択をクリックします。 Azure Data Lake を使用するように新しい開発者を設定するには、 Data Lake Analytics 開発者 ロールを選択します。
- U-SQL データベースのアクセス制御リスト (ACL) を選択します。 選択内容に満足したら、[選択] を押してください。
- ファイルの ACL を選択します。 既定のストアでは、ルート フォルダー "/" と /system フォルダーの ACL を変更しないでください。 選択をクリックします。
- 選択したすべての変更を確認し、[ 実行] を選択します。
- ウィザードが完了したら、[ 完了] を選択します。
Azure ロールベースのアクセス制御を管理する
他の Azure サービスと同様に、Azure ロールベースのアクセス制御 (Azure RBAC) を使用して、ユーザーがサービスと対話する方法を制御できます。
標準の Azure ロールには、次の機能があります。
- 所有者: ジョブの送信、ジョブの監視、任意のユーザーからのジョブの取り消し、アカウントの構成を行うことができます。
- 共同作成者: ジョブの送信、ジョブの監視、任意のユーザーからのジョブの取り消し、アカウントの構成を行うことができます。
- 閲覧者: ジョブを監視できます。
Data Lake Analytics 開発者ロールを使用して、U-SQL 開発者が Data Lake Analytics サービスを使用できるようにします。 Data Lake Analytics 開発者ロールを使用すると、次のことができます。
- 作業を送信する。
- ジョブの状態と、任意のユーザーによって送信されたジョブの進行状況を監視します。
- 任意のユーザーによって送信されたジョブの U-SQL スクリプトを参照してください。
- 自分のジョブのみを取り消します。
Data Lake Analytics アカウントにユーザーまたはセキュリティ グループを追加する
Azure portal で、Data Lake Analytics アカウントに移動します。
[アクセス制御 (IAM)] を選択します。
[追加>ロールの割り当ての追加] を選択して、[ロールの割り当ての追加] ページを開きます。
ユーザーにロールを割り当てます。 詳細な手順については、 Azure portal を使用した Azure ロールの割り当てに関するページを参照してください。
注
ユーザーまたはセキュリティ グループがジョブを送信する必要がある場合は、ストア アカウントに対するアクセス許可も必要です。 詳細については、「 Data Lake Store に格納されているデータをセキュリティで保護する」を参照してください。
ジョブを管理する
仕事を送信する
Azure portal で、Data Lake Analytics アカウントに移動します。
新しいジョブ を選択します。 ジョブごとに、次の構成を行います。
- ジョブ名: ジョブの名前。
- 優先度: [ その他のオプション] の下にあります。 数値が小さい方が優先度が高くなります。 2 つのジョブがキューに入っている場合、優先順位の低いジョブが最初に実行されます。
- AU: このジョブ用に予約する Analytics ユニットまたはコンピューティング プロセスの最大数。
- ランタイム: [ その他のオプション] の下にも表示されます。 カスタム ランタイムを受け取っていない限り、既定のランタイムを選択します。
スクリプトを追加します。
ジョブの送信を選択します。
ジョブの監視
- Azure portal で、Data Lake Analytics アカウントに移動します。
- ページの上部にある [ すべてのジョブの表示 ] を選択します。 アカウント内のすべてのアクティブなジョブと最近完了したジョブの一覧が表示されます。
- 必要に応じて、[ フィルター] を選択すると、 時間範囲、 状態、 ジョブ名、 ジョブ ID、 パイプライン名 または パイプライン ID、 繰り返し名 または 繰り返し ID、 作成者 の値でジョブを検索できます。
パイプライン ジョブの監視
パイプラインの一部であるジョブは、特定のシナリオを実現するために、通常は順番に連携します。 たとえば、顧客の分析情報の使用状況をクリーンアップ、抽出、変換、集計するパイプラインを作成できます。 パイプライン ジョブは、ジョブの送信時に "Pipeline" プロパティを使用して識別されます。 ADF V2 を使用してスケジュールされたジョブには、このプロパティが自動的に設定されます。
パイプラインの一部である U-SQL ジョブの一覧を表示するには:
- Azure portal で、Data Lake Analytics アカウントに移動します。
- [Job Insights] を選択します。 [すべてのジョブ] タブが既定で表示され、実行中のジョブ、キューに登録されているジョブ、終了したジョブの一覧が表示されます。
- [ パイプライン ジョブ] タブを選択します。パイプライン ジョブの一覧と、各パイプラインの集計された統計情報が表示されます。
繰り返し実行されるジョブの監視
定期的なジョブは、同じビジネス ロジックを持つが、実行するたびに異なる入力データを使用するジョブです。 理想的には、定期的なジョブは常に成功し、比較的安定した実行時間を持つ必要があります。これらの動作を監視すると、ジョブが正常であることを確認するのに役立ちます。 定期的なジョブは、"Recurrence" プロパティを使用して識別されます。 ADF V2 を使用してスケジュールされたジョブには、このプロパティが自動的に設定されます。
定期的な U-SQL ジョブの一覧を表示するには:
- Azure portal で、Data Lake Analytics アカウントに移動します。
- [Job Insights] を選択します。 [すべてのジョブ] タブが既定で表示され、実行中のジョブ、キューに登録されているジョブ、終了したジョブの一覧が表示されます。
- [ 定期的なジョブ ] タブを選択します。定期的なジョブの一覧と、各定期的なジョブの集計された統計情報が表示されます。