次の方法で共有


PropertyId enum

音声プロパティ ID を定義します。

フィールド

SpeechServiceConnection_Key = 0

Cognitive Services Speech Service サブスクリプション キー。 意図認識エンジンを使用している場合は、特定の LUIS アプリの LUIS エンドポイント キーを指定する必要があります。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromSubscription を使用します。

SpeechServiceConnection_Endpoint = 1

Cognitive Services Speech Service エンドポイント (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromEndpoint を使用します。 注: このエンドポイントは、アクセス トークンの取得に使用されるエンドポイントと同じではありません。

SpeechServiceConnection_Region = 2

Cognitive Services Speech Service リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromSubscriptionSpeechConfig.fromEndpointSpeechConfig.fromAuthorizationToken を使用します。

SpeechServiceAuthorization_Token = 3

Cognitive Services Speech Service 承認トークン (アクセス トークンとも呼ばれる)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromAuthorizationTokenSpeechRecognizer.authorizationTokenIntentRecognizer.authorizationTokenTranslationRecognizer.authorizationTokenSpeakerRecognizer.authorizationToken を使用します。

SpeechServiceAuthorization_Type = 4

Cognitive Services Speech Service 承認の種類。 現在使用されていません。

SpeechServiceConnection_EndpointId = 5

Cognitive Services Speech Service エンドポイント ID。通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.endpointId を使用します。 注: エンドポイント ID は、Speech Portal の [エンドポイントの詳細] の下に表示されます。

SpeechServiceConnection_TranslationToLanguages = 6

ターゲット翻訳言語として使用されるコンマ区切り言語 (BCP-47 形式) の一覧。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechTranslationConfig.addTargetLanguageSpeechTranslationConfig.targetLanguagesTranslationRecognizer.targetLanguages を使用します。

SpeechServiceConnection_TranslationVoice = 7

Cognitive Service Text to Speech Service Voice の名前。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechTranslationConfig.voiceName を使用します。 注:有効な音声名は 、こちらで確認できます。

SpeechServiceConnection_TranslationFeatures = 8

翻訳機能。

SpeechServiceConnection_TranslationCategoryId = 9

翻訳のカテゴリ ID。

SpeechServiceConnection_IntentRegion = 10

Language Understanding サービス リージョン。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 LanguageUnderstandingModel を使用します。

SpeechServiceConnection_ProxyHostName = 11

Cognitive Services Speech Service への接続に使用するプロキシ サーバーのホスト名。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに、 <cref="SpeechConfig.SetProxy(string,int,string,string)"/>を参照してください。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyPort = 12

Cognitive Services Speech Service への接続に使用されるプロキシ サーバーのポート。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに、 <cref="SpeechConfig.SetProxy(string,int,string,string)"/>を参照してください。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyUserName = 13

Cognitive Services Speech Service への接続に使用するプロキシ サーバーのユーザー名。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに、 <cref="SpeechConfig.SetProxy(string,int,string,string)"/>を参照してください。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_ProxyPassword = 14

Cognitive Services Speech Service への接続に使用するプロキシ サーバーのパスワード。 Node.js 環境でのみ関連します。 このプロパティを直接使用する必要はありません。 代わりに、 <cref="SpeechConfig.SetProxy(string,int,string,string)"/>を参照してください。 バージョン 1.4.0 で追加されました。

SpeechServiceConnection_RecoMode = 15

Cognitive Services Speech Service 認識モード。 "INTERACTIVE"、"CONVERSATION"、"DICTATION" を指定できます。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。

SpeechServiceConnection_RecoLanguage = 16

認識される音声言語 (BCP-47 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.speechRecognitionLanguage を使用します。

Speech_SessionId = 17

セッション ID。この ID は、オーディオ入力ストリームの特定のバインドと、それがバインドされている基になる音声認識インスタンスを表す汎用一意識別子 (UUID) です。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SessionEventArgs.sessionId を使用します。

SpeechServiceConnection_SynthLanguage = 18

合成する音声言語 (例: en-US)

SpeechServiceConnection_SynthVoice = 19

音声合成に使用する TTS 音声の名前

SpeechServiceConnection_SynthOutputFormat = 20

TTS 出力オーディオ形式を指定する文字列

SpeechServiceConnection_AutoDetectSourceLanguages = 21

可能なソース言語として使用されるコンマ区切り言語の一覧バージョン 1.13.0 で追加されました

SpeechServiceResponse_RequestDetailedResultTrueFalse = 22

要求された Cognitive Services Speech Service 応答出力形式 (単純または詳細)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、SpeechConfig.outputFormat を使用します。

SpeechServiceResponse_RequestProfanityFilterTrueFalse = 23

要求された Cognitive Services Speech Service 応答出力の不適切なレベル。 現在使用されていません。

SpeechServiceResponse_JsonResult = 24

Cognitive Services Speech Service 応答出力 (JSON 形式)。 このプロパティは、認識結果オブジェクトでのみ使用できます。

SpeechServiceResponse_JsonErrorDetails = 25

Cognitive Services Speech Service エラーの詳細 (JSON 形式)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに 、CancellationDetails.errorDetails を使用します。

CancellationDetails_Reason = 26

取り消しの理由。 現在使用されていません。

CancellationDetails_ReasonText = 27

取り消しテキスト。 現在使用されていません。

CancellationDetails_ReasonDetailedText = 28

取り消しの詳細なテキスト。 現在使用されていません。

LanguageUnderstandingServiceResponse_JsonResult = 29

Language Understanding Service 応答出力 (JSON 形式)。 IntentRecognitionResult から入手可能

SpeechServiceConnection_Url = 30

音声構成から構築された URL 文字列。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 注: バージョン 1.7.0 で追加されました。

SpeechServiceConnection_InitialSilenceTimeoutMs = 31

サービスによって使用される初期無音タイムアウト値 (ミリ秒)。 バージョン 1.7.0 で追加されました

SpeechServiceConnection_EndSilenceTimeoutMs = 32

サービスによって使用される終了無音タイムアウト値 (ミリ秒)。 バージョン 1.7.0 で追加されました

Speech_SegmentationSilenceTimeoutMs = 33

検出された無音の継続時間 (ミリ秒単位)。 その後、音声テキスト変換によって音声フレーズが終了したと判断され、最終的な認識結果が生成されます。 このタイムアウトを構成すると、音声入力が通常よりも大幅に高速または低速になり、既定のセグメント化動作によって一貫して長すぎる、または短すぎる結果が得られる場合に役立ちます。 不適切に高い値または低いセグメント化タイムアウト値は、音声テキスト変換の精度に悪影響を与える可能性があります。このプロパティは慎重に構成する必要があり、結果の動作は意図したとおりに徹底的に検証する必要があります。

有効な値の範囲と追加の詳細については、ドキュメントを参照してください。 https://learn.microsoft.com/azure/ai-services/speech-service/how-to-recognize-speech?pivots=programming-language-csharp#change-how-silence-is-handled

バージョン 1.42.0 で追加されました。

Speech_SegmentationMaximumTimeMs = 34

SegmentationMaximumTimeMs は、時間セグメント化戦略を使用する場合の音声フレーズの最大長を表します。

Speech_SegmentationStrategy = 35

話し言葉がいつ終了し、最終的な認識結果の生成をトリガーするかを判断するために使用される戦略を指定します。

サポートされている値:

  • "Default": Speech Service の既定のセグメント化戦略を使用します。 ほとんどのユースケースに推奨されます。
  • "Time": 無音ベースのタイムアウトを使用します。 最終結果は、定義された無音期間の後に生成されます。 Requires
SpeechServiceConnection_EnableAudioLogging = 36

サービスでオーディオ ログを有効にするかどうかを指定するブール値。 オーディオ ログとコンテンツ ログは、Microsoft が所有するストレージ、または Cognitive Services サブスクリプションにリンクされた独自のストレージ アカウント (BYOS (Bring Your Own Storage) 対応 Speech リソース) に格納されます。 ログは 30 日後に削除されます。 バージョン 1.7.0 で追加されました

SpeechServiceConnection_LanguageIdMode = 37

Speech Service 接続言語識別子モード。 "AtStart" (既定値) または "Continuous" を指定できます。 詳細については、言語識別ドキュメントの https://aka.ms/speech/lid?pivots=programming-language-javascript を参照してください。 1.25.0 で追加

SpeechServiceConnection_RecognitionEndpointVersion = 38

音声認識の対象となるエンドポイントのバージョンを表す文字列値。 バージョン 1.21.0 で追加されました

SpeechServiceConnection_SpeakerIdMode = 39

/**

  • 現在の話者認識シナリオ/モード (TextIndependentIdentification など) の文字列値。
  • バージョン 1.23.0 で追加されました
SpeechServiceResponse_ProfanityOption = 40

要求された Cognitive Services Speech Service 応答出力の不適切な設定。 使用できる値は、"masked"、"removed"、および "raw" です。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_PostProcessingOption = 41

サービスで使用する後処理オプションを指定する文字列値。 使用できる値は "TrueText" です。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_RequestWordLevelTimestamps = 42

応答結果に単語レベルのタイムスタンプを含めるかどうかを指定するブール値。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_StablePartialResultThreshold = 43

単語が部分的な結果に含まれている必要がある回数を返します。 バージョン 1.7.0 で追加されました

SpeechServiceResponse_OutputFormatOption = 44

応答結果の出力形式オプションを指定する文字列値。 内部使用のみ。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_TranslationRequestStablePartialResult = 45

末尾の単語を省略して翻訳の部分的な結果を安定させるために要求するブール値。 バージョン 1.7.0 で追加されました。

SpeechServiceResponse_RequestWordBoundary = 46

WordBoundary イベントを要求するかどうかを指定するブール値。

SpeechServiceResponse_RequestPunctuationBoundary = 47

WordBoundary イベントで句読点の境界を要求するかどうかを指定するブール値。 既定値は true です。

SpeechServiceResponse_RequestSentenceBoundary = 48

WordBoundary イベントで文の境界を要求するかどうかを指定するブール値。 既定値は false です。

SpeechServiceResponse_DiarizeIntermediateResults = 49

中間結果に話者識別が含まれているかどうかを判断します。 使用できる値は "true" または "false" です。 "true" に設定すると、中間結果には話者識別が含まれます。 設定を解除するか、無効な値に設定した場合の既定値は "false" です。 これは現在、ConversationTranscriber を使用するシナリオでのみサポートされています。

Conversation_ApplicationId = 50

バックエンド サービスへの接続に使用される識別子。

Conversation_DialogType = 51

接続するダイアログ バックエンドの種類。

Conversation_Initial_Silence_Timeout = 52

リッスンの無音タイムアウト

Conversation_From_Id = 53

Id から音声認識アクティビティに追加します。

Conversation_Conversation_Id = 54

セッションの ConversationId。

Conversation_Custom_Voice_Deployment_Ids = 55

カスタム音声展開 ID のコンマ区切りの一覧。

Conversation_Speech_Activity_Template = 56

音声アクティビティ テンプレート。サービスによって生成された音声アクティビティのテンプレートのプロパティにスタンプを付けます。

Conversation_Request_Bot_Status_Messages = 57

turnStatusReceived イベントで取得したターンステータスメッセージの受信を有効または無効にします。

Conversation_Agent_Connection_Id = 58

エージェント構成メッセージで提供される接続 ID (チャネル認証用の Direct Line トークンなど) を指定します。 バージョン 1.15.1 で追加されました。

SpeechServiceConnection_Host = 59

Cognitive Services Speech Service ホスト (URL)。 通常の状況では、このプロパティを直接使用する必要はありません。 代わりに、 SpeechConfig.fromHost を使用します。

ConversationTranslator_Host = 60

Conversation Translator REST 管理と Websocket 呼び出しへのサービス呼び出しのホストを設定します。

ConversationTranslator_Name = 61

必要に応じて、ホストの表示名を設定します。 会話に参加するときに使用されます。

ConversationTranslator_CorrelationId = 62

必要に応じて、X-CorrelationId 要求ヘッダーの値を設定します。 サーバー ログのエラーのトラブルシューティングに使用されます。 有効な guid である必要があります。

ConversationTranslator_Token = 63

音声サービスに送信される会話トークンを設定します。 これにより、音声認識を中継するために、サービスから音声サービスから Conversation Translator サービスへの呼び出しを処理できます。 内部使用の場合。

PronunciationAssessment_ReferenceText = 64

発音評価用のオーディオの参照テキスト。 このパラメーターと次の発音評価パラメーターについては、https://docs.microsoft.com/azure/cognitive-services/speech-service/rest-speech-to-text#pronunciation-assessment-parameters を参照してください。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_GradingSystem = 65

発音スコア調整のポイント システム (FivePoint または HundredMark)。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Granularity = 66

発音評価の粒度 (Phoneme、Word、または FullText)。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_EnableMiscue = 67

その他の計算を有効にするかどうかを定義します。 これを有効にすると、発音された単語が参照テキストと比較され、比較に基づいて省略/挿入でマークされます。 既定の設定は False です。 通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Json = 68

発音評価パラメーターの json 文字列通常の状況では、このプロパティを直接使用する必要はありません。 バージョン 1.15.0 で追加されました

PronunciationAssessment_Params = 69

発音評価パラメーター。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.15.0 で追加されました

SpeakerRecognition_Api_Version = 70

使用する Speaker Recognition API のバージョン。 バージョン 1.18.0 で追加されました

WebWorkerLoadType = 71

Web worker のデータ URL の読み込みを許可するかどうかを指定します。許可される値は "off" と "on" です。 既定値は "on" です。 バージョン 1.32.0 で追加されました

TalkingAvatarService_WebRTC_SDP = 72

会話アバター サービス WebRTC セッション記述プロトコル。 このプロパティは読み取り専用です。 SDK では内部的に使用されています。 バージョン 1.33.0 で追加されました