次の方法で共有


会話言語理解とは

会話言語理解は、Azure AI Language で提供されているカスタム機能の 1 つです。 これは、機械学習インテリジェンスを適用して、エンドツーエンドの会話アプリケーションで使用される自然言語理解コンポーネントを構築できるようにするクラウドベースの API サービスです。

会話言語理解 (CLU) を使用すると、ユーザーはカスタムの自然言語理解モデルを構築して、受信した発話の全体的意図を予測し、そこから重要な情報を抽出することができます。 CLU は、クライアント アプリケーションのために入力テキストを理解するインテリジェンスのみを提供するもので、アクションはまったく実行しません。 開発者は CLU プロジェクトを作成することによって、利用のために提供を開始する前に、発話のラベル付け、トレーニング、モデル パフォーマンスの評価を繰り返し行えます。 ラベル付けされたデータの品質は、モデルのパフォーマンスに大きく影響します。 モデルの構築とカスタマイズを簡素化するために、このサービスには 、Azure AI Foundry を介してアクセスできるカスタム Web ポータルが用意されています。 このクイックスタートの手順に従って、サービスを簡単に開始できます。

このドキュメントには、次の種類の記事が含まれています。

  • クイックスタートは、サービスへの要求の実行方法を説明する概要手順です。
  • 概念では、サービスの機能と特徴について説明します。
  • 攻略ガイドには、より具体的またはカスタマイズした方法でサービスを使用するための手順が記載されています。

使用シナリオの例

CLU は、さまざまな業界の複数のシナリオで使用できます。 いくつかの例を次に示します。

エンド ツー エンドの会話型ボット

CLU を使用して、特定の領域と予想されるユーザーの発話に基づくカスタム自然言語理解モデルを構築し、トレーニングを行います。 テキストの意図を特定し、そこから重要な情報を抽出するため、これをあらゆるエンド ツー エンドの会話型ボットと統合し、受信したテキストをリアルタイムで処理して分析できるようにします。 意図と抽出された情報に基づいて、必要とされるアクションをボットに実行させます。 たとえば、オンライン ショッピングや食品の注文のためにカスタマイズした小売ボットが挙げられます。

人間のアシスタント ボット

人間のアシスタント ボットの一例は、顧客の問い合わせに優先順位を付けてそれらを適切なサポート エンジニアに割り当てることで、スタッフによる顧客エンゲージメントの改善を支援することです。 もう 1 つの例は、従業員が自然言語でやり取りして質問に基づいたガイダンスを受け取ることができる、企業の人事ボットです。

コマンドとコントロールのアプリケーション

クライアント アプリケーションを音声テキスト変換コンポーネントと統合すると、ユーザーがコマンドを自然言語で話せば、CLU でクライアント アプリケーションのためにテキストの情報について処理、意図の識別、抽出を行い、アクションを実行することができます。 このユース ケースには、曲の停止、再生、転送、巻き戻しや、照明のオンとオフの切り替えなど、多くのアプリケーションがあります。

エンタープライズ チャット ボット

大企業では、エンタープライズ チャット ボットがさまざまな従業員の業務を処理する場合があります。 よく寄せられる質問を、カスタム質問応答ナレッジ ベースで提供するサービスで処理すること、会話言語理解で提供するサービスによって予定表固有の作業を処理すること、面談のフィードバック作業を LUIS で提供するサービスで処理することもできます。 オーケストレーション ワークフローを使用して、これらのスキルをすべて接続し、受信した要求を正しいサービスに適切にルーティングします。

エージェント

CLU は 、ユーザーの意図 を検出し、正確な回答を提供するインテント ルーティング エージェント テンプレートによって利用されます。 決定論的な意図のルーティングと、人間の制御による正確な質問の回答に最適です。

プロジェクト開発ライフサイクル

CLU プロジェクトの作成には、通常、いくつかの異なる手順が含まれます。

LLM を利用したクイック デプロイ パスのグラフ。

Azure AI Foundry では、CLU モデルをカスタマイズするための微調整タスクをワークスペースとして作成します。 以前は、CLU 微調整タスクは CLU プロジェクトと呼れていました。 これらの用語は、従来の CLU ドキュメントで同じ意味で使用されている場合があります。

CLU には、実装を最大限に活用するための 2 つのパスが用意されています。

オプション 1 (LLM を使用したクイック デプロイ):

  1. スキーマを定義する: データを把握し、ユーザーの入力発話から認識する必要があるアクションと関連情報を定義します。 この手順では、意図を作成し、ユーザーの発話に割り当てる意図の意味に関する詳細な説明を提供します。

  2. モデルをデプロイする: LLM ベースのトレーニング構成を使用してモデルをデプロイすると、ランタイム API を介して使用できるようになります。

  3. 意図とエンティティを予測する: カスタム モデルデプロイを使用して、ユーザーの発話からカスタム意図と事前構築済みエンティティを予測します。

オプション 2 (カスタム 機械学習モデル)

トレーニング済みのモデルを最大限に活用するには、次の手順に従います。

  1. スキーマを定義する: データを把握し、ユーザーの入力発話から認識する必要があるアクションと関連情報を定義します。 この手順では、ユーザーの発話に割り当てる 意図 と、抽出する関連 エンティティ を作成します。

  2. データのラベル付け: データのラベル付けの品質は、モデルのパフォーマンスを決める重要な要素です。

  3. モデルをトレーニングする: モデルは、ラベル付けされたデータから学習を開始します。

  4. モデルのパフォーマンスを表示する: モデルの評価の詳細を表示して、新しいデータが導入された場合のパフォーマンスを判断します。

  5. モデルの改善: モデルのパフォーマンスを確認した後、モデルを改善する方法を学習できます。

  6. モデルをデプロイする: モデルは、デプロイすることによって Runtime API を介して使用可能になります。

  7. 意図とエンティティを予測する: カスタム モデルを使用して、ユーザーの発話から意図とエンティティを予測します。

リファレンス ドキュメントとコード サンプル

会話言語理解を使用する場合は、次の Azure AI Language のリファレンス ドキュメントとサンプルをご覧ください。

開発オプション/言語 リファレンス ドキュメント サンプル
REST API (オーサリング) REST API のドキュメント
REST API (ランタイム) REST API のドキュメント
C# (ランタイム) C# 関連のドキュメント C# のサンプル
Python (ランタイム) Python のドキュメント Python のサンプル

責任ある AI

AI システムには、テクノロジだけでなく、それを使用する人、それによって影響を受ける人、それがデプロイされる環境も含まれます。 CLU のためのメモを読み、システムでの責任ある AI の使用と展開について確認してください。 詳細については、次の記事も参照してください。

次のステップ