Compartilhar via


Indexes - Get

Recupera uma definição de índice.

GET {endpoint}/indexes('{indexName}')?api-version=2025-09-01

Parâmetros de URI

Nome Em Obrigatório Tipo Description
endpoint
path True

string

A URL do ponto de extremidade do serviço de pesquisa.

indexName
path True

string

O nome do índice a ser recuperado.

api-version
query True

string

Versão da API do cliente.

Cabeçalho da solicitação

Nome Obrigatório Tipo Description
x-ms-client-request-id

string (uuid)

O ID de rastreamento enviado com a solicitação para ajudar na depuração.

Respostas

Nome Tipo Description
200 OK

SearchIndex

Other Status Codes

ErrorResponse

Resposta de erro.

Exemplos

SearchServiceGetIndex

Solicitação de exemplo

GET https://stableexampleservice.search.windows.net/indexes('stable-test')?api-version=2025-09-01

Resposta de exemplo

{
  "@odata.etag": "0x1234568AE7E58A1",
  "name": "stable-test",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "normalizer": "standard",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer",
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "<redacted>",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      }
    ]
  }
}

Definições

Nome Description
AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latim Básico") em seus equivalentes ASCII, se tais equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Credenciais de um aplicativo registrado criado para o serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault.

AzureOpenAIEmbeddingSkill

Permite gerar uma inserção de vetor para uma determinada entrada de texto usando o recurso OpenAI do Azure.

AzureOpenAIModelName

O nome do modelo do Azure Open AI que será chamado.

AzureOpenAIParameters

Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.

AzureOpenAIVectorizer

Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta.

BinaryQuantizationVectorSearchCompressionConfiguration

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e a consulta.

BM25Similarity

Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo semelhante ao TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

CharFilterName

Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.

CjkBigramTokenFilter

Forma bigramas de termos CJK gerados a partir do tokenizador padrão. Esse filtro de token é implementado usando o Apache Lucene.

CjkBigramTokenFilterScripts

Scripts que podem ser ignorados por CjkBigramTokenFilter.

ClassicSimilarity

Algoritmo de similaridade herdado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Essa variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam os documentos que correspondem apenas parcialmente às consultas pesquisadas.

ClassicTokenizer

Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos em idiomas europeus. Esse tokenizador é implementado usando o Apache Lucene.

CommonGramTokenFilter

Construa bigramas para termos que ocorrem com frequência durante a indexação. Os termos únicos também são indexados, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene.

CorsOptions

Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar os tokens emitidos pelo criador de token.

CustomNormalizer

Permite configurar a normalização para campos filtráveis, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Esse filtro de token é implementado usando o Apache Lucene.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

DistanceScoringParameters

Fornece valores de parâmetro para uma função de pontuação de distância.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s) começando pela frente ou por trás de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

EdgeNGramTokenFilterSide

Especifica de qual lado da entrada um n-grama deve ser gerado.

EdgeNGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s) começando pela frente ou por trás de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) fornecido(s). Esse tokenizador é implementado usando o Apache Lucene.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Esse filtro de token é implementado usando o Apache Lucene.

ErrorAdditionalInfo

As informações adicionais do erro de gerenciamento de recursos.

ErrorDetail

O detalhe do erro.

ErrorResponse

Resposta de erro

ExhaustiveKnnParameters

Contém os parâmetros específicos do algoritmo KNN exaustivo.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de atualização.

HnswParameters

Contém os parâmetros específicos do algoritmo HNSW.

HnswVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos aproximados do HNSW usado durante a indexação e a consulta. O algoritmo HNSW oferece uma compensação ajustável entre velocidade e precisão de pesquisa.

InputFieldMappingEntry

Mapeamento de campo de entrada para uma habilidade.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene.

KeywordTokenizer

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

KeywordTokenizerV2

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

LengthTokenFilter

Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.

LexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.

LexicalTokenizerName

Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.

LimitTokenFilter

Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene.

LuceneStandardAnalyzer

Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de segmentação de texto Unicode. Esse tokenizador é implementado usando o Apache Lucene.

LuceneStandardTokenizerV2

Quebra o texto seguindo as regras de segmentação de texto Unicode. Esse tokenizador é implementado usando o Apache Lucene.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

MagnitudeScoringParameters

Fornece valores de parâmetro para uma função de pontuação de magnitude.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Esse filtro de caracteres é implementado usando o Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas básicas.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

MicrosoftStemmingTokenizerLanguage

Lista os idiomas com suporte pelo tokenizador de lematização de idioma da Microsoft.

MicrosoftTokenizerLanguage

Lista os idiomas com suporte pelo tokenizador de idioma da Microsoft.

NGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s). Esse filtro de token é implementado usando o Apache Lucene.

NGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s). Esse filtro de token é implementado usando o Apache Lucene.

NGramTokenizer

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Esse tokenizador é implementado usando o Apache Lucene.

OutputFieldMappingEntry

Mapeamento de campo de saída para uma habilidade.

PathHierarchyTokenizerV2

Tokenizer para hierarquias semelhantes a caminhos. Esse tokenizador é implementado usando o Apache Lucene.

PatternAnalyzer

Separa o texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres a serem preservadas e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caracteres é implementado usando o Apache Lucene.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres a serem preservadas e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene.

PatternTokenizer

Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Esse tokenizador é implementado usando o Apache Lucene.

PhoneticEncoder

Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene.

PrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas.

RankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.

RegexFlags

Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no tokenizador de padrões.

RescoringOptions

Contém as opções de repontuação.

ScalarQuantizationParameters

Contém os parâmetros específicos da quantização escalar.

ScalarQuantizationVectorSearchCompressionConfiguration

Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta.

ScoringFunctionAggregation

Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.

ScoringFunctionInterpolation

Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

SearchFieldDataType

Define o tipo de dados de um campo em um índice de pesquisa.

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

SearchIndexerDataNoneIdentity

Limpa a propriedade de identidade de uma fonte de dados.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade de uma fonte de dados a ser usada.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de recursos semânticos.

SemanticField

Um campo que é usado como parte da configuração semântica.

SemanticSettings

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

ShingleTokenFilter

Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene.

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado pelo Snowball. Esse filtro de token é implementado usando o Apache Lucene.

SnowballTokenFilterLanguage

O idioma a ser usado para um filtro de token do Snowball.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de lematização por lematização personalizada baseada em dicionário. Todos os termos derivados do dicionário serão marcados como palavras-chave para que não sejam derivados com lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene.

StemmerTokenFilter

Filtro de lematização específico do idioma. Esse filtro de token é implementado usando o Apache Lucene.

StemmerTokenFilterLanguage

O idioma a ser usado para um filtro de token de lematizador.

StopAnalyzer

Divide o texto em não-letras; Aplica os filtros de token de palavras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene.

StopwordsList

Identifica uma lista predefinida de palavras irrelevantes específicas do idioma.

StopwordsTokenFilter

Remove palavras de parada de um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

Suggester

Define como a API de Sugestão deve ser aplicada a um grupo de campos no índice.

SuggesterSearchMode

Um valor que indica os recursos do sugestor.

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de tag.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

TokenCharacterKind

Representa classes de caracteres nas quais um filtro de token pode operar.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene.

UaxUrlEmailTokenizer

Tokeniza urls e e-mails como um token. Esse tokenizador é implementado usando o Apache Lucene.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Esse filtro de token é implementado usando o Apache Lucene.

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

VectorSearchAlgorithmKind

O algoritmo usado para indexação e consulta.

VectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações vetoriais. É recomendável escolher a mesma métrica de similaridade na qual o modelo de inserção foi treinado.

VectorSearchCompressionKind

O método de compactação usado para indexação e consulta.

VectorSearchCompressionRescoreStorageMethod

O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno.

VectorSearchCompressionTargetDataType

O tipo de dados quantizados de valores vetoriais compactados.

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa vetorial.

VectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.

WebApiParameters

Especifica as propriedades para se conectar a um vetorizador definido pelo usuário.

WebApiVectorizer

Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface de API Web personalizada de um conjunto de habilidades.

WordDelimiterTokenFilter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene.

AsciiFoldingTokenFilter

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latim Básico") em seus equivalentes ASCII, se tais equivalentes existirem. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

preserveOriginal

boolean

False

Um valor que indica se o token original será mantido. O padrão é false.

AzureActiveDirectoryApplicationCredentials

Credenciais de um aplicativo registrado criado para o serviço de pesquisa, usado para acesso autenticado às chaves de criptografia armazenadas no Azure Key Vault.

Nome Tipo Description
applicationId

string

Uma ID de Aplicativo do AAD que recebeu as permissões de acesso necessárias ao Azure Key Vault que deve ser usado ao criptografar seus dados em repouso. A ID do Aplicativo não deve ser confundida com a ID do Objeto do Aplicativo AAD.

applicationSecret

string

A chave de autenticação do aplicativo AAD especificado.

AzureOpenAIEmbeddingSkill

Permite gerar uma inserção de vetor para uma determinada entrada de texto usando o recurso OpenAI do Azure.

Nome Tipo Description
@odata.type string:

#Microsoft.Skills.Text.AzureOpenAIEmbeddingSkill

Um fragmento de URI especificando o tipo de habilidade.

apiKey

string

Chave de API do recurso OpenAI do Azure designado.

authIdentity SearchIndexerDataIdentity:

A identidade gerenciada atribuída pelo usuário usada para conexões de saída.

context

string

Representa o nível em que as operações ocorrem, como a raiz do documento ou o conteúdo do documento (por exemplo, /document ou /document/content). O padrão é /document.

deploymentId

string

ID da implantação do modelo OpenAI do Azure no recurso designado.

description

string

A descrição da habilidade que descreve as entradas, saídas e uso da habilidade.

dimensions

integer (int32)

O número de dimensões que as inserções de saída resultantes devem ter. Compatível apenas com text-embedding-3 e modelos posteriores.

inputs

InputFieldMappingEntry[]

As entradas das habilidades podem ser uma coluna no conjunto de dados de origem ou a saída de uma habilidade upstream.

modelName

AzureOpenAIModelName

O nome do modelo de inserção implantado no caminho deploymentId fornecido.

name

string

O nome da habilidade que a identifica exclusivamente no conjunto de habilidades. Uma habilidade sem nome definido receberá um nome padrão de seu índice baseado em 1 na matriz de habilidades, prefixado com o caractere '#'.

outputs

OutputFieldMappingEntry[]

A saída de uma habilidade é um campo em um índice de pesquisa ou um valor que pode ser consumido como uma entrada por outra habilidade.

resourceUri

string (uri)

O URI do recurso OpenAI do Azure.

AzureOpenAIModelName

O nome do modelo do Azure Open AI que será chamado.

Valor Description
text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

AzureOpenAIParameters

Especifica os parâmetros para se conectar ao recurso OpenAI do Azure.

Nome Tipo Description
apiKey

string

Chave de API do recurso OpenAI do Azure designado.

authIdentity SearchIndexerDataIdentity:

A identidade gerenciada atribuída pelo usuário usada para conexões de saída.

deploymentId

string

ID da implantação do modelo OpenAI do Azure no recurso designado.

modelName

AzureOpenAIModelName

O nome do modelo de inserção implantado no caminho deploymentId fornecido.

resourceUri

string (uri)

O URI do recurso OpenAI do Azure.

AzureOpenAIVectorizer

Especifica o recurso OpenAI do Azure usado para vetorizar uma cadeia de caracteres de consulta.

Nome Tipo Description
azureOpenAIParameters AzureOpenAIParameters:

AzureOpenAIEmbeddingSkill

Contém os parâmetros específicos para a vetorização de inserção do OpenAI do Azure.

kind string:

azureOpenAI

O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa vetorial.

name

string

O nome a ser associado a esse método de vetorização específico.

BinaryQuantizationVectorSearchCompressionConfiguration

Contém opções de configuração específicas para o método de compactação de quantização binária usado durante a indexação e a consulta.

Nome Tipo Description
kind string:

binaryQuantization

O nome do tipo de método de compactação que está sendo configurado para uso com pesquisa vetorial.

name

string

O nome a ser associado a essa configuração específica.

rescoringOptions

RescoringOptions

Contém as opções de repontuação.

truncationDimension

integer (int32)

O número de dimensões para as quais truncar os vetores. O truncamento dos vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa em detrimento do recall. Ele deve ser usado apenas para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é nulo, o que significa que não há truncamento.

BM25Similarity

Função de classificação baseada no algoritmo de similaridade Okapi BM25. BM25 é um algoritmo semelhante ao TF-IDF que inclui normalização de comprimento (controlada pelo parâmetro 'b'), bem como saturação de frequência de termo (controlada pelo parâmetro 'k1').

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number (double)

Essa propriedade controla como o comprimento de um documento afeta a pontuação de relevância. Por padrão, um valor de 0,75 é usado. Um valor de 0,0 significa que nenhuma normalização de comprimento é aplicada, enquanto um valor de 1,0 significa que a pontuação é totalmente normalizada pelo comprimento do documento.

k1

number (double)

Essa propriedade controla a função de dimensionamento entre a frequência de termos de cada termo correspondente e a pontuação de relevância final de um par de consulta de documento. Por padrão, um valor de 1,2 é usado. Um valor de 0,0 significa que a pontuação não é dimensionada com um aumento na frequência do período.

CharFilterName

Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.

Valor Description
html_strip

Um filtro de caracteres que tenta remover construções HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Forma bigramas de termos CJK gerados a partir do tokenizador padrão. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

ignoreScripts

CjkBigramTokenFilterScripts[]

Os scripts a serem ignorados.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

outputUnigrams

boolean

False

Um valor que indica se os unigramas e bigramas (se verdadeiros) ou apenas bigramas (se falsos) devem ser gerados. O padrão é false.

CjkBigramTokenFilterScripts

Scripts que podem ser ignorados por CjkBigramTokenFilter.

Valor Description
han

Ignore o script Han ao formar bigramas de termos CJK.

hiragana

Ignore a escrita Hiragana ao formar bigramas de termos CJK.

katakana

Ignore o script Katakana ao formar bigramas de termos CJK.

hangul

Ignore a escrita Hangul ao formar bigramas de termos CJK.

ClassicSimilarity

Algoritmo de similaridade herdado que usa a implementação Lucene TFIDFSimilarity do TF-IDF. Essa variação de TF-IDF introduz a normalização estática do comprimento do documento, bem como fatores de coordenação que penalizam os documentos que correspondem apenas parcialmente às consultas pesquisadas.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos em idiomas europeus. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

CommonGramTokenFilter

Construa bigramas para termos que ocorrem com frequência durante a indexação. Os termos únicos também são indexados, com bigramas sobrepostos. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

commonWords

string[]

O conjunto de palavras comuns.

ignoreCase

boolean

False

Um valor que indica se as palavras comuns correspondentes não diferenciam maiúsculas de minúsculas. O padrão é false.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

queryMode

boolean

False

Um valor que indica se o filtro de token está no modo de consulta. Quando no modo de consulta, o filtro de token gera bigramas e, em seguida, remove palavras comuns e termos únicos seguidos por uma palavra comum. O padrão é false.

CorsOptions

Define opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para um índice.

Nome Tipo Description
allowedOrigins

string[]

A lista de origens das quais o código JavaScript terá acesso ao índice. Pode conter uma lista de hosts no formato {protocol}://{fully-qualified-___domain-name}[:{port#}] ou um único '*' para permitir todas as origens (não recomendado).

maxAgeInSeconds

integer (int64)

A duração pela qual os navegadores devem armazenar em cache as respostas de comprovação do CORS. O padrão é 5 minutos.

CustomAnalyzer

Permite que você assuma o controle sobre o processo de conversão de texto em tokens indexáveis/pesquisáveis. É uma configuração definida pelo usuário que consiste em um único tokenizer predefinido e um ou mais filtros. O criador de token é responsável por dividir o texto em tokens e os filtros para modificar os tokens emitidos pelo criador de token.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Um fragmento de URI especificando o tipo de analisador.

charFilters

CharFilterName[]

Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado pelo criador de tokens. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados.

name

string

O nome do analisador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

tokenFilters

TokenFilterName[]

Uma lista de filtros de token usados para filtrar ou modificar os tokens gerados por um criador de token. Por exemplo, você pode especificar um filtro em minúsculas que converte todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados.

tokenizer

LexicalTokenizerName

O nome do tokenizer a ser usado para dividir o texto contínuo em uma sequência de tokens, como dividir uma frase em palavras.

CustomNormalizer

Permite configurar a normalização para campos filtráveis, classificáveis e facetáveis, que, por padrão, operam com correspondência estrita. Essa é uma configuração definida pelo usuário que consiste em pelo menos um ou mais filtros, que modificam o token armazenado.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

Um fragmento de URI que especifica o tipo de normalizador.

charFilters

CharFilterName[]

Uma lista de filtros de caracteres usados para preparar o texto de entrada antes de ser processado. Por exemplo, eles podem substituir certos caracteres ou símbolos. Os filtros são executados na ordem em que são listados.

name

string

O nome do normalizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres. Ele não pode terminar em '.microsoft' nem '.lucene', nem ser chamado de 'asciifolding', 'standard', 'lowercase', 'uppercase' ou 'elision'.

tokenFilters

TokenFilterName[]

Uma lista de filtros de token usados para filtrar ou modificar o token de entrada. Por exemplo, você pode especificar um filtro em minúsculas que converte todos os caracteres em minúsculas. Os filtros são executados na ordem em que são listados.

DictionaryDecompounderTokenFilter

Decompõe palavras compostas encontradas em muitas línguas germânicas. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

maxSubwordSize

integer (int32)

maximum: 300
15

O tamanho máximo da subpalavra. Somente subpalavras menores que isso são produzidas. O padrão é 15. O máximo é 300.

minSubwordSize

integer (int32)

maximum: 300
2

O tamanho mínimo da subpalavra. Apenas subpalavras mais longas do que isso são produzidas. O padrão é 2. O máximo é 300.

minWordSize

integer (int32)

maximum: 300
5

O tamanho mínimo da palavra. Apenas palavras mais longas do que isso são processadas. O padrão é 5. O máximo é 300.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

onlyLongestMatch

boolean

False

Um valor que indica se a subpalavra correspondente mais longa deve ser adicionada à saída. O padrão é false.

wordList

string[]

A lista de palavras a serem correspondidas.

DistanceScoringFunction

Define uma função que aumenta as pontuações com base na distância de uma localização geográfica.

Nome Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

distance

DistanceScoringParameters

Valores de parâmetro para a função de pontuação de distância.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o aumento será interpolado entre as pontuações do documento; o padrão é "Linear".

type string:

distance

Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e tag. O tipo de função deve ser minúsculo.

DistanceScoringParameters

Fornece valores de parâmetro para uma função de pontuação de distância.

Nome Tipo Description
boostingDistance

number (double)

A distância em quilômetros do local de referência onde termina o alcance de impulso.

referencePointParameter

string

O nome do parâmetro passado em consultas de pesquisa para especificar o local de referência.

EdgeNGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s) começando pela frente ou por trás de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

maxGram

integer (int32)

2

O comprimento máximo de n-gramas. O padrão é 2.

minGram

integer (int32)

1

O comprimento mínimo de n-gramas. O padrão é 1. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

side

EdgeNGramTokenFilterSide

front

Especifica de qual lado da entrada o n-gram deve ser gerado. O padrão é "front".

EdgeNGramTokenFilterSide

Especifica de qual lado da entrada um n-grama deve ser gerado.

Valor Description
front

Especifica que o n-grama deve ser gerado a partir da frente da entrada.

back

Especifica que o n-grama deve ser gerado a partir da parte de trás da entrada.

EdgeNGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s) começando pela frente ou por trás de um token de entrada. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Um fragmento de URI que especifica o tipo de filtro de token.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

side

EdgeNGramTokenFilterSide

front

Especifica de qual lado da entrada o n-gram deve ser gerado. O padrão é "front".

EdgeNGramTokenizer

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) fornecido(s). Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

tokenChars

TokenCharacterKind[]

Classes de personagens para manter nos tokens.

ElisionTokenFilter

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

articles

string[]

O conjunto de artigos a serem removidos.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

ErrorAdditionalInfo

As informações adicionais do erro de gerenciamento de recursos.

Nome Tipo Description
info

object

As informações adicionais.

type

string

O tipo de informação adicional.

ErrorDetail

O detalhe do erro.

Nome Tipo Description
additionalInfo

ErrorAdditionalInfo[]

As informações adicionais do erro.

code

string

O código de erro.

details

ErrorDetail[]

Os detalhes do erro.

message

string

A mensagem de erro.

target

string

O destino do erro.

ErrorResponse

Resposta de erro

Nome Tipo Description
error

ErrorDetail

O objeto de erro.

ExhaustiveKnnParameters

Contém os parâmetros específicos do algoritmo KNN exaustivo.

Nome Tipo Description
metric

VectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações vetoriais.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo KNN exaustivo usado durante a consulta, que executará a pesquisa de força bruta em todo o índice vetorial.

Nome Tipo Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Contém os parâmetros específicos do algoritmo KNN exaustivo.

kind string:

exhaustiveKnn

O nome do tipo de algoritmo que está sendo configurado para uso com pesquisa vetorial.

name

string

O nome a ser associado a essa configuração específica.

FreshnessScoringFunction

Define uma função que aumenta as pontuações com base no valor de um campo de data e hora.

Nome Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

freshness

FreshnessScoringParameters

Valores de parâmetro para a função de pontuação de atualização.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o aumento será interpolado entre as pontuações do documento; o padrão é "Linear".

type string:

freshness

Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e tag. O tipo de função deve ser minúsculo.

FreshnessScoringParameters

Fornece valores de parâmetro para uma função de pontuação de atualização.

Nome Tipo Description
boostingDuration

string (duration)

O período de expiração após o qual o aumento será interrompido para um documento específico.

HnswParameters

Contém os parâmetros específicos do algoritmo HNSW.

Nome Tipo Valor padrão Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de indexação. Aumentar esse parâmetro pode melhorar a qualidade do índice, às custas do aumento do tempo de indexação. Em um certo ponto, aumentar esse parâmetro leva a retornos decrescentes.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

O tamanho da lista dinâmica que contém os vizinhos mais próximos, que é usada durante o tempo de pesquisa. Aumentar esse parâmetro pode melhorar os resultados da pesquisa, às custas de uma pesquisa mais lenta. Em um certo ponto, aumentar esse parâmetro leva a retornos decrescentes.

m

integer (int32)

minimum: 4
maximum: 10
4

O número de vínculos bidirecionais criados para cada novo elemento durante a construção. Aumentar esse valor de parâmetro pode melhorar a recuperação e reduzir os tempos de recuperação para conjuntos de dados com alta dimensionalidade intrínseca às custas do aumento do consumo de memória e maior tempo de indexação.

metric

VectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações vetoriais.

HnswVectorSearchAlgorithmConfiguration

Contém opções de configuração específicas para o algoritmo de vizinhos mais próximos aproximados do HNSW usado durante a indexação e a consulta. O algoritmo HNSW oferece uma compensação ajustável entre velocidade e precisão de pesquisa.

Nome Tipo Description
hnswParameters

HnswParameters

Contém os parâmetros específicos do algoritmo HNSW.

kind string:

hnsw

O nome do tipo de algoritmo que está sendo configurado para uso com pesquisa vetorial.

name

string

O nome a ser associado a essa configuração específica.

InputFieldMappingEntry

Mapeamento de campo de entrada para uma habilidade.

Nome Tipo Description
inputs

InputFieldMappingEntry[]

As entradas recursivas usadas ao criar um tipo complexo.

name

string

O nome da entrada.

source

string

A origem da entrada.

sourceContext

string

O contexto de origem usado para selecionar entradas recursivas.

KeepTokenFilter

Um filtro de token que mantém apenas tokens com texto contido em uma lista especificada de palavras. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

keepWords

string[]

A lista de palavras a serem mantidas.

keepWordsCase

boolean

False

Um valor que indica se todas as palavras devem ser minúsculas primeiro. O padrão é false.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

KeywordMarkerTokenFilter

Marca termos como palavras-chave. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

ignoreCase

boolean

False

Um valor que indica se deve ignorar maiúsculas e minúsculas. Se true, todas as palavras são convertidas em minúsculas primeiro. O padrão é false.

keywords

string[]

Uma lista de palavras a serem marcadas como palavras-chave.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

KeywordTokenizer

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

bufferSize

integer (int32)

256

O tamanho do buffer de leitura em bytes. O padrão é 256.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

KeywordTokenizerV2

Emite toda a entrada como um único token. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Um fragmento de URI que especifica o tipo de criador de token.

maxTokenLength

integer (int32)

maximum: 300
256

O comprimento máximo do token. O padrão é 256. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

LengthTokenFilter

Remove palavras muito longas ou muito curtas. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

max

integer (int32)

maximum: 300
300

O comprimento máximo em caracteres. O padrão e o máximo são 300.

min

integer (int32)

maximum: 300
0

O comprimento mínimo em caracteres. O padrão é 0. O máximo é 300. Deve ser menor que o valor de max.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

LexicalAnalyzerName

Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.

Valor Description
ar.microsoft

Microsoft analyzer for Arabic.

ar.lucene

Analisador Lucene para árabe.

hy.lucene

Analisador Lucene para armênio.

bn.microsoft

Analisador da Microsoft para Bangla.

eu.lucene

Analisador Lucene para basco.

bg.microsoft

Microsoft analyzer for Bulgarian.

bg.lucene

Analisador de Lucene para búlgaro.

ca.microsoft

Microsoft analyzer for Catalan.

ca.lucene

Analisador Lucene para catalão.

zh-Hans.microsoft

Analisador da Microsoft para chinês (simplificado).

zh-Hans.lucene

Analisador Lucene para chinês (simplificado).

zh-Hant.microsoft

Analisador da Microsoft para chinês (tradicional).

zh-Hant.lucene

Analisador de Lucene para chinês (tradicional).

hr.microsoft

Microsoft analyzer para croata.

cs.microsoft

Microsoft analyzer for Czech.

cs.lucene

Analisador de Lucene para o checo.

da.microsoft

Microsoft analyzer for Danish.

da.lucene

Analisador de Lucene para dinamarquês.

nl.microsoft

Microsoft analyzer for Dutch.

nl.lucene

Analisador Lucene para holandês.

en.microsoft

Microsoft analyzer para inglês.

en.lucene

Analisador Lucene para inglês.

et.microsoft

Microsoft analyzer for Estonian.

fi.microsoft

Microsoft analyzer for Finlandês.

fi.lucene

Analisador de Lucene para finlandês.

fr.microsoft

Microsoft analyzer for French.

fr.lucene

Analisador de Lucene para francês.

gl.lucene

Analisador Lucene para galego.

de.microsoft

Microsoft analyzer para alemão.

de.lucene

Analisador Lucene para alemão.

el.microsoft

Microsoft analyzer para grego.

el.lucene

Analisador de Lucene para grego.

gu.microsoft

Microsoft analyzer for Gujarati.

he.microsoft

Analisador da Microsoft para hebraico.

hi.microsoft

Analisador da Microsoft para hindi.

hi.lucene

Analisador de Lucene para Hindi.

hu.microsoft

Microsoft analyzer para húngaro.

hu.lucene

Analisador Lucene para húngaro.

is.microsoft

Microsoft analyzer para islandês.

id.microsoft

Microsoft analyzer for Indonesian (Bahasa).

id.lucene

Analisador de Lucene para indonésio.

ga.lucene

Analisador Lucene para irlandês.

it.microsoft

Microsoft analyzer for Italian.

it.lucene

Analisador de Lucene para italiano.

ja.microsoft

Microsoft Analyzer para japonês.

ja.lucene

Analisador Lucene para japonês.

kn.microsoft

Microsoft analyzer for Kannada.

ko.microsoft

Microsoft analyzer para coreano.

ko.lucene

Analisador de Lucene para coreano.

lv.microsoft

Microsoft analyzer for Latvian.

lv.lucene

Analisador de Lucene para letão.

lt.microsoft

Microsoft analyzer for Lithuanian.

ml.microsoft

Microsoft analyzer for Malayalam.

ms.microsoft

Microsoft analyzer para malaio (latim).

mr.microsoft

Microsoft analyzer for Marathi.

nb.microsoft

Microsoft analyzer for Norwegian (Bokmål).

no.lucene

Analisador de Lucene para norueguês.

fa.lucene

Analisador de Lucene para persa.

pl.microsoft

Microsoft analyzer for Polish.

pl.lucene

Analisador Lucene para polonês.

pt-BR.microsoft

Microsoft analyzer para português (Brasil).

pt-BR.lucene

Analisador Lucene para português (Brasil).

pt-PT.microsoft

Microsoft analyzer para português (Portugal).

pt-PT.lucene

Analisador Lucene para português (Portugal).

pa.microsoft

Microsoft analyzer for Punjabi.

ro.microsoft

Microsoft analyzer para romeno.

ro.lucene

Analisador de Lucene para romeno.

ru.microsoft

Microsoft analyzer para russo.

ru.lucene

Analisador de Lucene para o russo.

sr-cyrillic.microsoft

Microsoft analyzer para sérvio (cirílico).

sr-latin.microsoft

Microsoft analyzer para sérvio (latim).

sk.microsoft

Microsoft analyzer for Slovak.

sl.microsoft

Microsoft analyzer for Slovenian.

es.microsoft

Microsoft analyzer para espanhol.

es.lucene

Analisador Lucene para espanhol.

sv.microsoft

Microsoft analyzer para sueco.

sv.lucene

Analisador Lucene para sueco.

ta.microsoft

Microsoft analyzer for Tamil.

te.microsoft

Analisador da Microsoft para Telugu.

th.microsoft

Microsoft analyzer for Thai.

th.lucene

Analisador Lucene para tailandês.

tr.microsoft

Microsoft analyzer para turco.

tr.lucene

Analisador Lucene para turco.

uk.microsoft

Analisador da Microsoft para ucraniano.

ur.microsoft

Microsoft analyzer for Urdu.

vi.microsoft

Analisador da Microsoft para vietnamita.

standard.lucene

Analisador Lucene padrão.

standardasciifolding.lucene

Analisador de Lucene Dobrável ASCII padrão. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, IDs e alguns nomes de produtos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Separa o texto em termos de forma flexível por meio de um padrão de expressão regular. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Divide o texto em letras diferentes e as converte em minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Divide o texto em não-letras; Aplica os filtros de token de palavras minúsculas e palavras irrelevantes. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Um analisador que usa o tokenizer de espaço em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.

Valor Description
asciifolding

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latim Básico") em seus equivalentes ASCII, se tais equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normaliza o texto do token para minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Normalizador padrão, que consiste em letras minúsculas e dobras ascii. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normaliza o texto do token para maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.

Valor Description
classic

Tokenizer baseado em gramática que é adequado para processar a maioria dos documentos em idiomas europeus. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokeniza a entrada de uma borda em n-gramas do(s) tamanho(s) fornecido(s). Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Emite toda a entrada como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Divide o texto em não-letras. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Divide o texto em letras diferentes e as converte em minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Divide o texto usando regras específicas do idioma.

microsoft_language_stemming_tokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas básicas.

nGram

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizer para hierarquias semelhantes a caminhos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Analisador Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Tokeniza urls e e-mails como um token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Divide o texto em espaços em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Limita o número de tokens durante a indexação. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

consumeAllTokens

boolean

False

Um valor que indica se todos os tokens da entrada devem ser consumidos mesmo que maxTokenCount seja atingido. O padrão é false.

maxTokenCount

integer (int32)

1

O número máximo de tokens a serem produzidos. O padrão é 1.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

LuceneStandardAnalyzer

Analisador Apache Lucene padrão; Composto pelo tokenizador padrão, filtro minúsculo e filtro de parada.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Um fragmento de URI especificando o tipo de analisador.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do analisador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

stopwords

string[]

Uma lista de palavras irrelevantes.

LuceneStandardTokenizer

Quebra o texto seguindo as regras de segmentação de texto Unicode. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

maxTokenLength

integer (int32)

255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

LuceneStandardTokenizerV2

Quebra o texto seguindo as regras de segmentação de texto Unicode. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Um fragmento de URI que especifica o tipo de criador de token.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

MagnitudeScoringFunction

Define uma função que aumenta as pontuações com base na magnitude de um campo numérico.

Nome Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o aumento será interpolado entre as pontuações do documento; o padrão é "Linear".

magnitude

MagnitudeScoringParameters

Valores de parâmetro para a função de pontuação de magnitude.

type string:

magnitude

Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e tag. O tipo de função deve ser minúsculo.

MagnitudeScoringParameters

Fornece valores de parâmetro para uma função de pontuação de magnitude.

Nome Tipo Description
boostingRangeEnd

number (double)

O valor de campo no qual o aumento termina.

boostingRangeStart

number (double)

O valor de campo no qual o aumento começa.

constantBoostBeyondRange

boolean

Um valor que indica se deve ser aplicado um aumento constante para valores de campo além do valor final do intervalo; default é false.

MappingCharFilter

Um filtro de caracteres que aplica mapeamentos definidos com a opção de mapeamentos. A correspondência é gananciosa (a correspondência de padrões mais longa em um determinado ponto vence). A substituição pode ser a cadeia de caracteres vazia. Esse filtro de caracteres é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Um fragmento de URI que especifica o tipo de filtro char.

mappings

string[]

Uma lista de mapeamentos do seguinte formato: "a=>b" (todas as ocorrências do caractere "a" serão substituídas pelo caractere "b").

name

string

O nome do filtro char. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

MicrosoftLanguageStemmingTokenizer

Divide o texto usando regras específicas do idioma e reduz as palavras às suas formas básicas.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

isSearchTokenizer

boolean

False

Um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizer de indexação. O padrão é false.

language

MicrosoftStemmingTokenizerLanguage

A linguagem a ser usada. O padrão é o inglês.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Os tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

MicrosoftLanguageTokenizer

Divide o texto usando regras específicas do idioma.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

isSearchTokenizer

boolean

False

Um valor que indica como o tokenizer é usado. Defina como true se usado como o tokenizador de pesquisa, defina como false se usado como o tokenizer de indexação. O padrão é false.

language

MicrosoftTokenizerLanguage

A linguagem a ser usada. O padrão é o inglês.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres. Os tokens com mais de 300 caracteres são primeiro divididos em tokens de comprimento 300 e, em seguida, cada um desses tokens é dividido com base no conjunto de comprimento máximo do token. O padrão é 255.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

MicrosoftStemmingTokenizerLanguage

Lista os idiomas com suporte pelo tokenizador de lematização de idioma da Microsoft.

Valor Description
arabic

Seleciona o tokenizador de lematização da Microsoft para árabe.

bangla

Seleciona o tokenizador de lematização da Microsoft para Bangla.

bulgarian

Seleciona o tokenizador de lematização da Microsoft para búlgaro.

catalan

Seleciona o tokenizador de lematização da Microsoft para catalão.

croatian

Seleciona o tokenizador de lematização da Microsoft para croata.

czech

Seleciona o tokenizer de lematização da Microsoft para tcheco.

danish

Seleciona o tokenizer de lematização da Microsoft para dinamarquês.

dutch

Seleciona o tokenizador de lematização da Microsoft para holandês.

english

Seleciona o tokenizador de lematização da Microsoft para inglês.

estonian

Seleciona o tokenizador de lematização da Microsoft para estoniano.

finnish

Seleciona o tokenizador de lematização da Microsoft para finlandês.

french

Seleciona o tokenizador de lematização da Microsoft para francês.

german

Seleciona o tokenizador de lematização da Microsoft para alemão.

greek

Seleciona o tokenizador de lematização da Microsoft para grego.

gujarati

Seleciona o tokenizador de lematização da Microsoft para Gujarati.

hebrew

Seleciona o tokenizador de lematização da Microsoft para hebraico.

hindi

Seleciona o tokenizador de lematização da Microsoft para hindi.

hungarian

Seleciona o tokenizador de lematização da Microsoft para húngaro.

icelandic

Seleciona o tokenizador de lematização da Microsoft para islandês.

indonesian

Seleciona o tokenizador de lematização da Microsoft para indonésio.

italian

Seleciona o tokenizador de lematização da Microsoft para italiano.

kannada

Seleciona o tokenizador de lematização da Microsoft para Kannada.

latvian

Seleciona o tokenizador de lematização da Microsoft para letão.

lithuanian

Seleciona o tokenizer de lematização da Microsoft para lituano.

malay

Seleciona o tokenizador de lematização da Microsoft para malaio.

malayalam

Seleciona o tokenizador de lematização da Microsoft para malaiala.

marathi

Seleciona o tokenizador de lematização da Microsoft para Marathi.

norwegianBokmaal

Seleciona o tokenizer de lematização da Microsoft para norueguês (Bokmål).

polish

Seleciona o tokenizador de lematização da Microsoft para polonês.

portuguese

Seleciona o tokenizer de lematização da Microsoft para português.

portugueseBrazilian

Seleciona o tokenizador de lematização da Microsoft para português (Brasil).

punjabi

Seleciona o tokenizador de lematização da Microsoft para Punjabi.

romanian

Seleciona o tokenizador de lematização da Microsoft para romeno.

russian

Seleciona o tokenizer de lematização da Microsoft para russo.

serbianCyrillic

Seleciona o tokenizador de lematização da Microsoft para sérvio (cirílico).

serbianLatin

Seleciona o tokenizador de lematização da Microsoft para sérvio (latino).

slovak

Seleciona o tokenizador de lematização da Microsoft para eslovaco.

slovenian

Seleciona o tokenizador de lematização da Microsoft para esloveno.

spanish

Seleciona o tokenizador de lematização da Microsoft para espanhol.

swedish

Seleciona o tokenizador de lematização da Microsoft para sueco.

tamil

Seleciona o tokenizer de lematização da Microsoft para Tamil.

telugu

Seleciona o tokenizador de lematização da Microsoft para Telugu.

turkish

Seleciona o tokenizador de lematização da Microsoft para turco.

ukrainian

Seleciona o tokenizador de lematização da Microsoft para ucraniano.

urdu

Seleciona o tokenizador de lematização da Microsoft para Urdu.

MicrosoftTokenizerLanguage

Lista os idiomas com suporte pelo tokenizador de idioma da Microsoft.

Valor Description
bangla

Seleciona o tokenizer da Microsoft para Bangla.

bulgarian

Seleciona o tokenizador da Microsoft para búlgaro.

catalan

Seleciona o tokenizador da Microsoft para catalão.

chineseSimplified

Seleciona o tokenizador da Microsoft para chinês (simplificado).

chineseTraditional

Seleciona o tokenizador da Microsoft para chinês (tradicional).

croatian

Seleciona o tokenizador da Microsoft para croata.

czech

Seleciona o tokenizador da Microsoft para tcheco.

danish

Seleciona o tokenizador da Microsoft para dinamarquês.

dutch

Seleciona o tokenizador da Microsoft para holandês.

english

Seleciona o tokenizador da Microsoft para inglês.

french

Seleciona o tokenizador da Microsoft para francês.

german

Seleciona o tokenizador da Microsoft para alemão.

greek

Seleciona o tokenizador da Microsoft para grego.

gujarati

Seleciona o tokenizador da Microsoft para Gujarati.

hindi

Seleciona o tokenizador da Microsoft para hindi.

icelandic

Seleciona o tokenizador da Microsoft para islandês.

indonesian

Seleciona o tokenizer da Microsoft para indonésio.

italian

Seleciona o tokenizador da Microsoft para italiano.

japanese

Seleciona o tokenizer da Microsoft para japonês.

kannada

Seleciona o tokenizador da Microsoft para Kannada.

korean

Seleciona o tokenizer da Microsoft para coreano.

malay

Seleciona o tokenizador da Microsoft para malaio.

malayalam

Seleciona o tokenizador da Microsoft para Malaiala.

marathi

Seleciona o tokenizador da Microsoft para Marathi.

norwegianBokmaal

Seleciona o tokenizer da Microsoft para norueguês (Bokmål).

polish

Seleciona o tokenizador da Microsoft para polonês.

portuguese

Seleciona o tokenizador da Microsoft para português.

portugueseBrazilian

Seleciona o tokenizador da Microsoft para português (Brasil).

punjabi

Seleciona o tokenizador da Microsoft para Punjabi.

romanian

Seleciona o tokenizador da Microsoft para romeno.

russian

Seleciona o tokenizador da Microsoft para russo.

serbianCyrillic

Seleciona o tokenizador da Microsoft para sérvio (cirílico).

serbianLatin

Seleciona o tokenizador da Microsoft para sérvio (latim).

slovenian

Seleciona o tokenizador da Microsoft para esloveno.

spanish

Seleciona o tokenizador da Microsoft para espanhol.

swedish

Seleciona o tokenizador da Microsoft para sueco.

tamil

Seleciona o tokenizador da Microsoft para Tamil.

telugu

Seleciona o tokenizador da Microsoft para Telugu.

thai

Seleciona o tokenizador da Microsoft para tailandês.

ukrainian

Seleciona o tokenizador da Microsoft para ucraniano.

urdu

Seleciona o tokenizador da Microsoft para urdu.

vietnamese

Seleciona o tokenizador da Microsoft para vietnamita.

NGramTokenFilter

Gera n-gramas do(s) tamanho(s) fornecido(s). Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

maxGram

integer (int32)

2

O comprimento máximo de n-gramas. O padrão é 2.

minGram

integer (int32)

1

O comprimento mínimo de n-gramas. O padrão é 1. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

NGramTokenFilterV2

Gera n-gramas do(s) tamanho(s) fornecido(s). Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Um fragmento de URI que especifica o tipo de filtro de token.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

NGramTokenizer

Tokeniza a entrada em n-gramas do(s) tamanho(s) fornecido(s). Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

maxGram

integer (int32)

maximum: 300
2

O comprimento máximo de n-gramas. O padrão é 2. O máximo é 300.

minGram

integer (int32)

maximum: 300
1

O comprimento mínimo de n-gramas. O padrão é 1. O máximo é 300. Deve ser menor que o valor de maxGram.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

tokenChars

TokenCharacterKind[]

Classes de personagens para manter nos tokens.

OutputFieldMappingEntry

Mapeamento de campo de saída para uma habilidade.

Nome Tipo Description
name

string

O nome da saída definida pela habilidade.

targetName

string

O nome de destino da saída. É opcional e o nome é padrão.

PathHierarchyTokenizerV2

Tokenizer para hierarquias semelhantes a caminhos. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Um fragmento de URI que especifica o tipo de criador de token.

delimiter

string (char)

/

O caractere delimitador a ser usado. O padrão é "/".

maxTokenLength

integer (int32)

maximum: 300
300

O comprimento máximo do token. O padrão e o máximo são 300.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

replacement

string (char)

/

Um valor que, se definido, substitui o caractere delimitador. O padrão é "/".

reverse

boolean

False

Um valor que indica se os tokens devem ser gerados em ordem inversa. O padrão é false.

skip

integer (int32)

0

O número de tokens iniciais a serem ignorados. O padrão é 0.

PatternAnalyzer

Separa o texto em termos de forma flexível por meio de um padrão de expressão regular. Esse analisador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Um fragmento de URI especificando o tipo de analisador.

flags

RegexFlags

Sinalizadores de expressão regular.

lowercase

boolean

True

Um valor que indica se os termos devem ser minúsculos. O padrão é true.

name

string

O nome do analisador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

pattern

string

\W+

Um padrão de expressão regular para corresponder a separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras.

stopwords

string[]

Uma lista de palavras irrelevantes.

PatternCaptureTokenFilter

Usa regexes Java para emitir vários tokens - um para cada grupo de captura em um ou mais padrões. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

patterns

string[]

Uma lista de padrões a serem correspondidos a cada token.

preserveOriginal

boolean

True

Um valor que indica se o token original deve ser retornado, mesmo que um dos padrões corresponda. O padrão é true.

PatternReplaceCharFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres a serem preservadas e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de caracteres é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Um fragmento de URI que especifica o tipo de filtro char.

name

string

O nome do filtro char. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

pattern

string

Um padrão de expressão regular.

replacement

string

O texto de substituição.

PatternReplaceTokenFilter

Um filtro de caracteres que substitui caracteres na cadeia de caracteres de entrada. Ele usa uma expressão regular para identificar sequências de caracteres a serem preservadas e um padrão de substituição para identificar caracteres a serem substituídos. Por exemplo, dado o texto de entrada "aa bb aa bb", o padrão "(aa)\s+(bb)" e a substituição "$1#$2", o resultado seria "aa#bb aa#bb". Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

pattern

string

Um padrão de expressão regular.

replacement

string

O texto de substituição.

PatternTokenizer

Tokenizer que usa a correspondência de padrões regex para construir tokens distintos. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

flags

RegexFlags

Sinalizadores de expressão regular.

group

integer (int32)

-1

O ordinal baseado em zero do grupo correspondente no padrão de expressão regular a ser extraído em tokens. Use -1 se quiser usar todo o padrão para dividir a entrada em tokens, independentemente dos grupos correspondentes. O padrão é -1.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

pattern

string

\W+

Um padrão de expressão regular para corresponder a separadores de token. Padrão é uma expressão que corresponde a um ou mais caracteres que não são palavras.

PhoneticEncoder

Identifica o tipo de codificador fonético a ser usado com um PhoneticTokenFilter.

Valor Description
metaphone

Codifica um token em um valor Metaphone.

doubleMetaphone

Codifica um token em um valor de metafone duplo.

soundex

Codifica um token em um valor Soundex.

refinedSoundex

Codifica um token em um valor Soundex refinado.

caverphone1

Codifica um token em um valor Caverphone 1.0.

caverphone2

Codifica um token em um valor Caverphone 2.0.

cologne

Codifica um token em um valor fonético de Colônia.

nysiis

Codifica um token em um valor NYSIIS.

koelnerPhonetik

Codifica um token usando o algoritmo Kölner Phonetik.

haasePhonetik

Codifica um token usando o refinamento Haase do algoritmo Kölner Phonetik.

beiderMorse

Codifica um token em um valor Beider-Morse.

PhoneticTokenFilter

Crie tokens para correspondências fonéticas. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

encoder

PhoneticEncoder

metaphone

O codificador fonético a ser usado. O padrão é "metaphone".

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

replace

boolean

True

Um valor que indica se os tokens codificados devem substituir os tokens originais. Se for falso, os tokens codificados serão adicionados como sinônimos. O padrão é true.

PrioritizedFields

Descreve os campos de título, conteúdo e palavras-chave a serem usados para classificação semântica, legendas, realces e respostas.

Nome Tipo Description
prioritizedContentFields

SemanticField[]

Define os campos de conteúdo a serem usados para classificação semântica, legendas, realces e respostas. Para obter o melhor resultado, os campos selecionados devem conter texto em linguagem natural. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo.

prioritizedKeywordsFields

SemanticField[]

Define os campos de palavra-chave a serem usados para classificação semântica, legendas, realces e respostas. Para obter o melhor resultado, os campos selecionados devem conter uma lista de palavras-chave. A ordem dos campos na matriz representa sua prioridade. Os campos com prioridade mais baixa podem ficar truncados se o conteúdo for longo.

titleField

SemanticField

Define o campo de título a ser usado para classificação semântica, legendas, realces e respostas. Se você não tiver um campo de título no índice, deixe em branco.

RankingOrder

Representa a pontuação a ser usada para a ordem de classificação dos documentos.

Valor Description
BoostedRerankerScore

Define a ordem de classificação como BoostedRerankerScore

RerankerScore

Define a ordem de classificação como ReRankerScore

RegexFlags

Define sinalizadores que podem ser combinados para controlar como as expressões regulares são usadas no analisador de padrões e no tokenizador de padrões.

Valor Description
CANON_EQ

Habilita a equivalência canônica.

CASE_INSENSITIVE

Permite a correspondência sem distinção entre maiúsculas e minúsculas.

COMMENTS

Permite espaços em branco e comentários no padrão.

DOTALL

Habilita o modo pontall.

LITERAL

Habilita a análise literal do padrão.

MULTILINE

Habilita o modo multilinha.

UNICODE_CASE

Permite a dobragem de maiúsculas e minúsculas com reconhecimento de Unicode.

UNIX_LINES

Ativa o modo de linhas Unix.

RescoringOptions

Contém as opções de repontuação.

Nome Tipo Valor padrão Description
defaultOversampling

number (double)

Fator de sobreamostragem padrão. A sobreamostragem recupera um conjunto maior de documentos potenciais para compensar a perda de resolução devido à quantização. Isso aumenta o conjunto de resultados que serão remarcados em vetores de precisão total. O valor mínimo é 1, o que significa que não há sobreamostragem (1x). Este parâmetro só pode ser definido quando 'enableRescoring' for verdadeiro. Valores mais altos melhoram a recuperação em detrimento da latência.

enableRescoring

boolean

True

Se definido como true, após a pesquisa inicial nos vetores compactados, as pontuações de similaridade serão recalculadas usando os vetores de precisão total. Isso melhorará a recuperação em detrimento da latência.

rescoreStorageMethod

VectorSearchCompressionRescoreStorageMethod

preserveOriginals

Controla o método de armazenamento para vetores originais. Essa configuração é imutável.

ScalarQuantizationParameters

Contém os parâmetros específicos da quantização escalar.

Nome Tipo Description
quantizedDataType

VectorSearchCompressionTargetDataType

O tipo de dados quantizados de valores vetoriais compactados.

ScalarQuantizationVectorSearchCompressionConfiguration

Contém opções de configuração específicas para o método de compactação de quantização escalar usado durante a indexação e a consulta.

Nome Tipo Description
kind string:

scalarQuantization

O nome do tipo de método de compactação que está sendo configurado para uso com pesquisa vetorial.

name

string

O nome a ser associado a essa configuração específica.

rescoringOptions

RescoringOptions

Contém as opções de repontuação.

scalarQuantizationParameters

ScalarQuantizationParameters

Contém os parâmetros específicos da quantização escalar.

truncationDimension

integer (int32)

O número de dimensões para as quais truncar os vetores. O truncamento dos vetores reduz o tamanho dos vetores e a quantidade de dados que precisam ser transferidos durante a pesquisa. Isso pode economizar custos de armazenamento e melhorar o desempenho da pesquisa em detrimento do recall. Ele deve ser usado apenas para incorporações treinadas com Matryoshka Representation Learning (MRL), como OpenAI text-embedding-3-large (small). O valor padrão é nulo, o que significa que não há truncamento.

ScoringFunctionAggregation

Define a função de agregação usada para combinar os resultados de todas as funções de pontuação em um perfil de pontuação.

Valor Description
sum

Aumente as pontuações pela soma de todos os resultados da função de pontuação.

average

Aumente as pontuações pela média de todos os resultados da função de pontuação.

minimum

Aumente as pontuações pelo mínimo de todos os resultados da função de pontuação.

maximum

Aumente as pontuações no máximo de todos os resultados da função de pontuação.

firstMatching

Aumente as pontuações usando a primeira função de pontuação aplicável no perfil de pontuação.

ScoringFunctionInterpolation

Define a função usada para interpolar o aumento de pontuação em um intervalo de documentos.

Valor Description
linear

Aumenta as pontuações em uma quantidade linearmente decrescente. Essa é a interpolação padrão para funções de pontuação.

constant

Aumenta as pontuações por um fator constante.

quadratic

Aumenta as pontuações em um valor que diminui quadraticamente. Os reforços diminuem lentamente para pontuações mais altas e mais rapidamente à medida que as pontuações diminuem. Essa opção de interpolação não é permitida em funções de pontuação de tag.

logarithmic

Aumenta as pontuações em uma quantidade que diminui logaritmicamente. Os reforços diminuem rapidamente para pontuações mais altas e mais lentamente à medida que as pontuações diminuem. Essa opção de interpolação não é permitida em funções de pontuação de tag.

ScoringProfile

Define parâmetros para um índice de pesquisa que influenciam a pontuação em consultas de pesquisa.

Nome Tipo Description
functionAggregation

ScoringFunctionAggregation

Um valor que indica como os resultados das funções de pontuação individuais devem ser combinados. O padrão é "Soma". Ignorado se não houver funções de pontuação.

functions ScoringFunction[]:

A coleção de funções que influenciam a pontuação de documentos.

name

string

O nome do perfil de pontuação.

text

TextWeights

Parâmetros que aumentam a pontuação com base em correspondências de texto em determinados campos de índice.

SearchField

Representa um campo em uma definição de índice, que descreve o nome, o tipo de dados e o comportamento de pesquisa de um campo.

Nome Tipo Description
analyzer

LexicalAnalyzerName

O nome do analisador a ser usado para o campo. Essa opção pode ser usada somente com campos pesquisáveis e não pode ser definida junto com searchAnalyzer ou indexAnalyzer. Uma vez escolhido o analisador, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

dimensions

integer (int32)

minimum: 2
maximum: 4096

A dimensionalidade do campo vetorial.

facetable

boolean

Um valor que indica se o campo deve ser referenciado em consultas de faceta. Geralmente usado em uma apresentação dos resultados de pesquisa que inclui a contagem de ocorrências por categoria (por exemplo, pesquisar câmeras digitais e ver as ocorrências por marca, por megapixels, por preço etc.). Essa propriedade deve ser nula para campos complexos. Os campos do tipo Edm.GeographyPoint ou Collection(Edm.GeographyPoint) não podem ser facetáveis. O padrão é true para todos os outros campos simples.

fields

SearchField[]

Uma lista de subcampos se este for um campo do tipo Edm.ComplexType ou Collection(Edm.ComplexType). Deve ser nulo ou vazio para campos simples.

filterable

boolean

Um valor que indica se o campo deve ser referenciado em consultas $filter. filterable difere de searchable na forma como as strings são tratadas. Os campos do tipo Edm.String ou Collection(Edm.String) que podem ser filtrados não passam por quebra de palavras, portanto, as comparações são apenas para correspondências exatas. Por exemplo, se você definir esse campo f como "dia ensolarado", $filter=f eq 'ensolarado' não encontrará correspondências, mas $filter=f eq 'dia ensolarado' encontrará. Essa propriedade deve ser nula para campos complexos. O padrão é true para campos simples e null para campos complexos.

indexAnalyzer

LexicalAnalyzerName

O nome do analisador usado no momento da indexação para o campo. Essa opção pode ser usada somente com campos pesquisáveis. Ele deve ser definido junto com searchAnalyzer e não pode ser definido junto com a opção analyzer. Essa propriedade não pode ser definida como o nome de um analisador de idioma; Em vez disso, use a propriedade Analyzer se precisar de um analisador de idioma. Uma vez escolhido o analisador, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

key

boolean

Um valor que indica se o campo identifica exclusivamente documentos no índice. Exatamente um campo de nível superior em cada índice deve ser escolhido como o campo-chave e deve ser do tipo Edm.String. Os campos-chave podem ser usados para pesquisar documentos diretamente e atualizar ou excluir documentos específicos. O padrão é false para campos simples e null para campos complexos.

name

string

O nome do campo, que deve ser exclusivo dentro da coleção de campos do índice ou campo pai.

normalizer

LexicalNormalizerName

O nome do normalizador a ser usado para o campo. Essa opção pode ser usada somente com campos com filtrável, classificável ou facetável ativado. Uma vez escolhido o normalizador, ele não pode ser alterado para o campo. Deve ser nulo para campos complexos.

retrievable

boolean

Um valor que indica se o campo pode ser retornado em um resultado de pesquisa. Você pode desativar essa opção se quiser usar um campo (por exemplo, margem) como um mecanismo de filtro, classificação ou pontuação, mas não quiser que o campo fique visível para o usuário final. Essa propriedade deve ser true para campos-chave e deve ser nula para campos complexos. Essa propriedade pode ser alterada em campos existentes. Habilitar essa propriedade não causa nenhum aumento nos requisitos de armazenamento de índice. O padrão é true para campos simples, false para campos vetoriais e null para campos complexos.

searchAnalyzer

LexicalAnalyzerName

O nome do analisador usado no momento da pesquisa para o campo. Essa opção pode ser usada somente com campos pesquisáveis. Ele deve ser definido junto com indexAnalyzer e não pode ser definido junto com a opção analyzer. Essa propriedade não pode ser definida como o nome de um analisador de idioma; Em vez disso, use a propriedade Analyzer se precisar de um analisador de idioma. Esse analisador pode ser atualizado em um campo existente. Deve ser nulo para campos complexos.

searchable

boolean

Um valor que indica se o campo é pesquisável em texto completo. Isso significa que ele passará por análises, como quebra de palavras durante a indexação. Se você definir um campo pesquisável com um valor como "dia ensolarado", internamente ele será dividido nos tokens individuais "ensolarado" e "dia". Isso habilita pesquisas de texto completo para esses termos. Os campos do tipo Edm.String ou Collection(Edm.String) são pesquisáveis por padrão. Essa propriedade deve ser false para campos simples de outros tipos de dados que não sejam de cadeia de caracteres e deve ser nula para campos complexos. Observação: os campos pesquisáveis consomem espaço extra no índice para acomodar versões indexadas adicionais do valor do campo para pesquisas de texto completo. Se você quiser economizar espaço no índice e não precisar que um campo seja incluído nas pesquisas, defina pesquisável como false.

sortable

boolean

Um valor que indica se o campo deve ser referenciado em expressões $orderby. Por padrão, o mecanismo de pesquisa classifica os resultados por pontuação, mas em muitas experiências os usuários desejam classificar por campos nos documentos. Um campo simples só pode ser classificado se for de valor único (ele tem um único valor no escopo do documento pai). Os campos de coleção simples não podem ser classificados, pois são de vários valores. Subcampos simples de coleções complexas também são multivalorados e, portanto, não podem ser classificados. Isso é verdade se é um campo pai imediato, ou um campo ancestral, que é a coleção complexa. Os campos complexos não podem ser classificáveis e a propriedade classificável deve ser nula para esses campos. O padrão para classificável é true para campos simples de valor único, false para campos simples de vários valores e null para campos complexos.

stored

boolean

Um valor imutável que indica se o campo será mantido separadamente no disco a ser retornado em um resultado de pesquisa. Você pode desabilitar essa opção se não planeja retornar o conteúdo do campo em uma resposta de pesquisa para economizar na sobrecarga de armazenamento. Isso só pode ser definido durante a criação do índice e somente para campos vetoriais. Essa propriedade não pode ser alterada para campos existentes ou definida como false para novos campos. Se essa propriedade for definida como false, a propriedade 'retrievable' também deverá ser definida como false. Essa propriedade deve ser verdadeira ou não definida para campos-chave, para novos campos e para campos não vetoriais, e deve ser nula para campos complexos. Desabilitar essa propriedade reduzirá os requisitos de armazenamento de índice. O padrão é true para campos vetoriais.

synonymMaps

string[]

Uma lista dos nomes dos mapas de sinônimos a serem associados a esse campo. Essa opção pode ser usada somente com campos pesquisáveis. Atualmente, há suporte para apenas um mapa de sinônimos por campo. Atribuir um mapa de sinônimos a um campo garante que os termos de consulta direcionados a esse campo sejam expandidos em tempo de consulta usando as regras no mapa de sinônimos. Esse atributo pode ser alterado em campos existentes. Deve ser nulo ou uma coleção vazia para campos complexos.

type

SearchFieldDataType

O tipo de dados do campo.

vectorEncoding

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo.

vectorSearchProfile

string

O nome do perfil de pesquisa de vetor que especifica o algoritmo e o vetorizador a serem usados ao pesquisar o campo de vetor.

SearchFieldDataType

Define o tipo de dados de um campo em um índice de pesquisa.

Valor Description
Edm.String

Indica que um campo contém uma cadeia de caracteres.

Edm.Int32

Indica que um campo contém um inteiro com sinal de 32 bits.

Edm.Int64

Indica que um campo contém um inteiro com sinal de 64 bits.

Edm.Double

Indica que um campo contém um número de ponto flutuante de precisão dupla IEEE.

Edm.Boolean

Indica que um campo contém um valor booleano (verdadeiro ou falso).

Edm.DateTimeOffset

Indica que um campo contém um valor de data/hora, incluindo informações de fuso horário.

Edm.GeographyPoint

Indica que um campo contém uma localização geográfica em termos de longitude e latitude.

Edm.ComplexType

Indica que um campo contém um ou mais objetos complexos que, por sua vez, têm subcampos de outros tipos.

Edm.Single

Indica que um campo contém um número de ponto flutuante de precisão simples. Isso só é válido quando usado com Collection(Edm.Single).

Edm.Half

Indica que um campo contém um número de ponto flutuante de meia precisão. Isso só é válido quando usado com Collection(Edm.Half).

Edm.Int16

Indica que um campo contém um inteiro com sinal de 16 bits. Isso só é válido quando usado com Collection(Edm.Int16).

Edm.SByte

Indica que um campo contém um inteiro com sinal de 8 bits. Isso só é válido quando usado com Collection(Edm.SByte).

Edm.Byte

Indica que um campo contém um inteiro sem sinal de 8 bits. Isso só é válido quando usado com Collection(Edm.Byte).

SearchIndex

Representa uma definição de índice de pesquisa, que descreve os campos e o comportamento de pesquisa de um índice.

Nome Tipo Description
@odata.etag

string

A ETag do índice.

analyzers LexicalAnalyzer[]:

Os analisadores do índice.

charFilters CharFilter[]:

Os filtros de caracteres para o índice.

corsOptions

CorsOptions

Opções para controlar o CORS (Compartilhamento de Recursos entre Origens) para o índice.

defaultScoringProfile

string

O nome do perfil de pontuação a ser usado se nenhum for especificado na consulta. Se essa propriedade não estiver definida e nenhum perfil de pontuação for especificado na consulta, a pontuação padrão (tf-idf) será usada.

description

string

A descrição do índice.

encryptionKey

SearchResourceEncryptionKey

Uma descrição de uma chave de criptografia que você cria no Azure Key Vault. Essa chave é usada para fornecer um nível adicional de criptografia em repouso para seus dados quando você deseja garantia total de que ninguém, nem mesmo a Microsoft, pode descriptografar seus dados. Depois de criptografar seus dados, eles sempre permanecerão criptografados. O serviço de pesquisa ignorará as tentativas de definir essa propriedade como nula. Você pode alterar essa propriedade conforme necessário se quiser girar sua chave de criptografia; Seus dados não serão afetados. A criptografia com chaves gerenciadas pelo cliente não está disponível para serviços de pesquisa gratuitos e só está disponível para serviços pagos criados a partir de 1º de janeiro de 2019.

fields

SearchField[]

Os campos do índice.

name

string

O nome do índice.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Os normalizadores do índice.

scoringProfiles

ScoringProfile[]

Os perfis de pontuação para o índice.

semantic

SemanticSettings

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

similarity Similarity:

O tipo de algoritmo de similaridade a ser usado ao pontuar e classificar os documentos que correspondem a uma consulta de pesquisa. O algoritmo de similaridade só pode ser definido no momento da criação do índice e não pode ser modificado em índices existentes. Se for nulo, o algoritmo ClassicSimilarity será usado.

suggesters

Suggester[]

Os sugestores para o índice.

tokenFilters TokenFilter[]:

O token filtra o índice.

tokenizers LexicalTokenizer[]:

Os tokenizadores do índice.

vectorSearch

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

SearchIndexerDataNoneIdentity

Limpa a propriedade de identidade de uma fonte de dados.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Um fragmento de URI especificando o tipo de identidade.

SearchIndexerDataUserAssignedIdentity

Especifica a identidade de uma fonte de dados a ser usada.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Um fragmento de URI especificando o tipo de identidade.

userAssignedIdentity

string

A ID de recurso do Azure totalmente qualificada de uma identidade gerenciada atribuída pelo usuário, normalmente no formato "/subscriptions/12345678-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId" que deveria ter sido atribuída ao serviço de pesquisa.

SearchResourceEncryptionKey

Uma chave de criptografia gerenciada pelo cliente no Azure Key Vault. As chaves que você cria e gerencia podem ser usadas para criptografar ou descriptografar dados em repouso, como índices e mapas de sinônimos.

Nome Tipo Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Credenciais opcionais do Azure Active Directory usadas para acessar o Azure Key Vault. Não é necessário se estiver usando a identidade gerenciada.

keyVaultKeyName

string

O nome da chave do Azure Key Vault a ser usada para criptografar seus dados em repouso.

keyVaultKeyVersion

string

A versão da chave do Azure Key Vault a ser usada para criptografar seus dados em repouso.

keyVaultUri

string

O URI do Azure Key Vault, também conhecido como nome DNS, que contém a chave a ser usada para criptografar seus dados em repouso. Um exemplo de URI pode ser https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Define uma configuração específica a ser usada no contexto de recursos semânticos.

Nome Tipo Description
name

string

O nome da configuração semântica.

prioritizedFields

PrioritizedFields

Descreve os campos de título, conteúdo e palavra-chave a serem usados para classificação semântica, legendas, realces e respostas. Pelo menos uma das três subpropriedades (titleField, prioritizedKeywordsFields e prioritizedContentFields) precisa ser definida.

rankingOrder

RankingOrder

Especifica o tipo de pontuação a ser usado para a ordem de classificação dos resultados da pesquisa.

SemanticField

Um campo que é usado como parte da configuração semântica.

Nome Tipo Description
fieldName

string

SemanticSettings

Define parâmetros para um índice de pesquisa que influenciam os recursos semânticos.

Nome Tipo Description
configurations

SemanticConfiguration[]

As configurações semânticas do índice.

defaultConfiguration

string

Permite definir o nome de uma configuração semântica padrão em seu índice, tornando opcional passá-lo como um parâmetro de consulta todas as vezes.

ShingleTokenFilter

Cria combinações de tokens como um único token. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

filterToken

string

_

A cadeia de caracteres a ser inserida para cada posição em que não há token. O padrão é um sublinhado ("_").

maxShingleSize

integer (int32)

minimum: 2
2

O tamanho máximo da telha. O valor padrão e mínimo é 2.

minShingleSize

integer (int32)

minimum: 2
2

O tamanho mínimo da telha. O valor padrão e mínimo é 2. Deve ser menor que o valor de maxShingleSize.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

outputUnigrams

boolean

True

Um valor que indica se o fluxo de saída conterá os tokens de entrada (unigramas), bem como shingles. O padrão é true.

outputUnigramsIfNoShingles

boolean

False

Um valor que indica se os unigramas devem ser emitidos para aqueles momentos em que não há telhas disponíveis. Essa propriedade tem precedência quando outputUnigrams é definido como false. O padrão é false.

tokenSeparator

string

A cadeia de caracteres a ser usada ao unir tokens adjacentes para formar uma telha. O padrão é um único espaço (" ").

SnowballTokenFilter

Um filtro que deriva palavras usando um lematizador gerado pelo Snowball. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

language

SnowballTokenFilterLanguage

A linguagem a ser usada.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

SnowballTokenFilterLanguage

O idioma a ser usado para um filtro de token do Snowball.

Valor Description
armenian

Seleciona o tokenizador de lematização Lucene Snowball para armênio.

basque

Seleciona o tokenizador de lematização Lucene Snowball para basco.

catalan

Seleciona o tokenizador de lematização Lucene Snowball para catalão.

danish

Seleciona o tokenizador de lematização Lucene Snowball para dinamarquês.

dutch

Seleciona o tokenizador de lematização Lucene Snowball para holandês.

english

Seleciona o tokenizador de lematização Lucene Snowball para inglês.

finnish

Seleciona o tokenizador de lematização Lucene Snowball para finlandês.

french

Seleciona o tokenizador de lematização Lucene Snowball para francês.

german

Seleciona o tokenizador de lematização Lucene Snowball para alemão.

german2

Seleciona o tokenizador de lematização Lucene Snowball que usa o algoritmo de variante alemão.

hungarian

Seleciona o tokenizador de lematização Lucene Snowball para húngaro.

italian

Seleciona o tokenizador de lematização Lucene Snowball para italiano.

kp

Seleciona o tokenizador de lematização Lucene Snowball para holandês que usa o algoritmo de lematização Kraaij-Pohlmann.

lovins

Seleciona o tokenizador de lematização Lucene Snowball para inglês que usa o algoritmo de lematização de Lovins.

norwegian

Seleciona o tokenizador de lematização Lucene Snowball para norueguês.

porter

Seleciona o tokenizador de lematização Lucene Snowball para inglês que usa o algoritmo de lematização de Porter.

portuguese

Seleciona o tokenizador de lematização Lucene Snowball para português.

romanian

Seleciona o tokenizador de lematização Lucene Snowball para romeno.

russian

Seleciona o tokenizador de lematização Lucene Snowball para russo.

spanish

Seleciona o tokenizador de lematização Lucene Snowball para espanhol.

swedish

Seleciona o tokenizador de lematização Lucene Snowball para sueco.

turkish

Seleciona o tokenizador de lematização Lucene Snowball para turco.

StemmerOverrideTokenFilter

Fornece a capacidade de substituir outros filtros de lematização por lematização personalizada baseada em dicionário. Todos os termos derivados do dicionário serão marcados como palavras-chave para que não sejam derivados com lematizadores na cadeia. Deve ser colocado antes de qualquer filtro de lematização. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

rules

string[]

Uma lista de regras de lematização no seguinte formato: "palavra => haste", por exemplo: "ran => run".

StemmerTokenFilter

Filtro de lematização específico do idioma. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

language

StemmerTokenFilterLanguage

A linguagem a ser usada.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

StemmerTokenFilterLanguage

O idioma a ser usado para um filtro de token de lematizador.

Valor Description
arabic

Seleciona o tokenizador de lematização Lucene para árabe.

armenian

Seleciona o tokenizador de lematização Lucene para armênio.

basque

Seleciona o tokenizer de derivação Lucene para basco.

brazilian

Seleciona o tokenizador de derivação Lucene para português (Brasil).

bulgarian

Seleciona o tokenizador de lematização Lucene para búlgaro.

catalan

Seleciona o tokenizador de lematização Lucene para catalão.

czech

Seleciona o tokenizer de lematização Lucene para tcheco.

danish

Seleciona o tokenizador de lematização Lucene para dinamarquês.

dutch

Seleciona o tokenizador de lematização Lucene para holandês.

dutchKp

Seleciona o tokenizador de lematização Lucene para holandês que usa o algoritmo de lematização Kraaij-Pohlmann.

english

Seleciona o tokenizador de lematização Lucene para inglês.

lightEnglish

Seleciona o tokenizer de lematização Lucene para inglês que faz lematização leve.

minimalEnglish

Seleciona o tokenizador de lematização Lucene para inglês que faz a lematização mínima.

possessiveEnglish

Seleciona o tokenizador de derivação Lucene para inglês que remove possessivos à direita das palavras.

porter2

Seleciona o tokenizador de lematização Lucene para inglês que usa o algoritmo de lematização Porter2.

lovins

Seleciona o tokenizador de lematização Lucene para inglês que usa o algoritmo de lematização de Lovins.

finnish

Seleciona o tokenizador de derivação Lucene para finlandês.

lightFinnish

Seleciona o tokenizador de lematização Lucene para finlandês que faz lematização leve.

french

Seleciona o tokenizador de lematização Lucene para francês.

lightFrench

Seleciona o tokenizer de lematização Lucene para francês que faz lematização leve.

minimalFrench

Seleciona o tokenizador de lematização Lucene para francês que faz a lematização mínima.

galician

Seleciona o tokenizador de lematização Lucene para galego.

minimalGalician

Seleciona o tokenizador de lematização Lucene para galego que faz a lematização mínima.

german

Seleciona o tokenizador de lematização Lucene para alemão.

german2

Seleciona o tokenizador de lematização Lucene que usa o algoritmo de variante alemão.

lightGerman

Seleciona o tokenizador de lematização Lucene para alemão que faz lematização leve.

minimalGerman

Seleciona o tokenizador de lematização Lucene para alemão que faz lematização mínima.

greek

Seleciona o tokenizador de lematização Lucene para grego.

hindi

Seleciona o tokenizador de lematização Lucene para hindi.

hungarian

Seleciona o tokenizador de lematização Lucene para húngaro.

lightHungarian

Seleciona o tokenizer de derivação Lucene para húngaro que faz a derivação leve.

indonesian

Seleciona o tokenizador de lematização Lucene para indonésio.

irish

Seleciona o tokenizador de derivação Lucene para irlandês.

italian

Seleciona o tokenizador de lematização Lucene para italiano.

lightItalian

Seleciona o tokenizador de lematização Lucene para italiano que faz lematização leve.

sorani

Seleciona o tokenizador de lematização Lucene para Sorani.

latvian

Seleciona o tokenizer de lematização Lucene para letão.

norwegian

Seleciona o tokenizador de derivação Lucene para norueguês (Bokmål).

lightNorwegian

Seleciona o tokenizer de lematização Lucene para norueguês (Bokmål) que faz a lematização leve.

minimalNorwegian

Seleciona o tokenizador de lematização Lucene para norueguês (Bokmål) que faz a lematização mínima.

lightNynorsk

Seleciona o tokenizer de lematização Lucene para norueguês (Nynorsk) que faz lematização leve.

minimalNynorsk

Seleciona o tokenizador de lematização Lucene para norueguês (Nynorsk) que faz a lematização mínima.

portuguese

Seleciona o tokenizador de lematização Lucene para português.

lightPortuguese

Seleciona o tokenizer de lematização Lucene para português que faz lematização leve.

minimalPortuguese

Seleciona o tokenizador de lematização Lucene para português que faz a lematização mínima.

portugueseRslp

Seleciona o tokenizador de lematização Lucene para português que usa o algoritmo de lematização RSLP.

romanian

Seleciona o tokenizador de lematização Lucene para romeno.

russian

Seleciona o tokenizador de derivação Lucene para russo.

lightRussian

Seleciona o tokenizador de derivação Lucene para russo que faz lematização leve.

spanish

Seleciona o tokenizador de lematização Lucene para espanhol.

lightSpanish

Seleciona o tokenizador de lematização Lucene para espanhol que faz lematização leve.

swedish

Seleciona o tokenizador de derivação Lucene para sueco.

lightSwedish

Seleciona o tokenizador de lematização Lucene para sueco que faz lematização leve.

turkish

Seleciona o tokenizer de lematização Lucene para turco.

StopAnalyzer

Divide o texto em não-letras; Aplica os filtros de token de palavras minúsculas e palavras irrelevantes. Esse analisador é implementado usando o Apache Lucene.

Nome Tipo Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Um fragmento de URI especificando o tipo de analisador.

name

string

O nome do analisador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

stopwords

string[]

Uma lista de palavras irrelevantes.

StopwordsList

Identifica uma lista predefinida de palavras irrelevantes específicas do idioma.

Valor Description
arabic

Seleciona a lista de palavras irrelevantes para árabe.

armenian

Seleciona a lista de palavras irrelevantes para armênio.

basque

Seleciona a lista de palavras irrelevantes para basco.

brazilian

Seleciona a lista de palavras irrelevantes para Português (Brasil).

bulgarian

Seleciona a lista de palavras irrelevantes para búlgaro.

catalan

Seleciona a lista de palavras irrelevantes para catalão.

czech

Seleciona a lista de palavras irrelevantes para tcheco.

danish

Seleciona a lista de palavras irrelevantes para dinamarquês.

dutch

Seleciona a lista de palavras irrelevantes para holandês.

english

Seleciona a lista de palavras irrelevantes para inglês.

finnish

Seleciona a lista de palavras irrelevantes para finlandês.

french

Seleciona a lista de palavras irrelevantes para francês.

galician

Seleciona a lista de palavras irrelevantes para galego.

german

Seleciona a lista de palavras irrelevantes para alemão.

greek

Seleciona a lista de palavras irrelevantes para grego.

hindi

Seleciona a lista de palavras irrelevantes para hindi.

hungarian

Seleciona a lista de palavras irrelevantes para húngaro.

indonesian

Seleciona a lista de palavras irrelevantes para indonésio.

irish

Seleciona a lista de palavras irrelevantes para irlandês.

italian

Seleciona a lista de palavras irrelevantes para italiano.

latvian

Seleciona a lista de palavras irrelevantes para letão.

norwegian

Seleciona a lista de palavras irrelevantes para norueguês.

persian

Seleciona a lista de palavras irrelevantes para persa.

portuguese

Seleciona a lista de palavras irrelevantes para o português.

romanian

Seleciona a lista de palavras irrelevantes para romeno.

russian

Seleciona a lista de palavras irrelevantes para russo.

sorani

Seleciona a lista de palavras irrelevantes para Sorani.

spanish

Seleciona a lista de palavras irrelevantes para espanhol.

swedish

Seleciona a lista de palavras irrelevantes para sueco.

thai

Seleciona a lista de palavras irrelevantes para tailandês.

turkish

Seleciona a lista de palavras irrelevantes para turco.

StopwordsTokenFilter

Remove palavras de parada de um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

ignoreCase

boolean

False

Um valor que indica se deve ignorar maiúsculas e minúsculas. Se true, todas as palavras são convertidas em minúsculas primeiro. O padrão é false.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

removeTrailing

boolean

True

Um valor que indica se o último termo de pesquisa deve ser ignorado se for uma palavra irrelevante. O padrão é true.

stopwords

string[]

A lista de palavras irrelevantes. Essa propriedade e a propriedade da lista de palavras irrelevantes não podem ser definidas.

stopwordsList

StopwordsList

english

Uma lista predefinida de palavras irrelevantes a serem usadas. Essa propriedade e a propriedade stopwords não podem ser definidas. O padrão é inglês.

Suggester

Define como a API de Sugestão deve ser aplicada a um grupo de campos no índice.

Nome Tipo Description
name

string

O nome do sugestor.

searchMode

SuggesterSearchMode

Um valor que indica os recursos do sugestor.

sourceFields

string[]

A lista de nomes de campo aos quais o sugestor se aplica. Cada campo deve ser pesquisável.

SuggesterSearchMode

Um valor que indica os recursos do sugestor.

Valor Description
analyzingInfixMatching

Corresponde a termos inteiros consecutivos e prefixos em um campo. Por exemplo, para o campo 'A raposa marrom mais rápida', as consultas 'rápida' e 'sobrancelha mais rápida' corresponderiam.

SynonymTokenFilter

Corresponde a sinônimos de uma ou várias palavras em um fluxo de token. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

expand

boolean

True

Um valor que indica se todas as palavras na lista de sinônimos (se a notação => não for usada) serão mapeadas umas para as outras. Se true, todas as palavras na lista de sinônimos (se a notação => não for usada) serão mapeadas umas para as outras. A lista a seguir: incrível, inacreditável, fabuloso, incrível é equivalente a: incrível, inacreditável, fabuloso, incrível => incrível, inacreditável, fabuloso, incrível. Se for falsa, a seguinte lista: incrível, inacreditável, fabuloso, incrível será equivalente a: incrível, inacreditável, fabuloso, incrível => incrível. O padrão é true.

ignoreCase

boolean

False

Um valor que indica se a entrada de maiúsculas e minúsculas deve ser dobrada para correspondência. O padrão é false.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

synonyms

string[]

Uma lista de sinônimos em um dos dois formatos: 1. incrível, inacreditável, fabuloso => incrível - todos os termos do lado esquerdo do símbolo => serão substituídos por todos os termos do lado direito; 2. incrível, inacreditável, fabuloso, incrível - lista separada por vírgulas de palavras equivalentes. Defina a opção de expansão para alterar a forma como essa lista é interpretada.

TagScoringFunction

Define uma função que aumenta as pontuações de documentos com valores de cadeia de caracteres correspondentes a uma determinada lista de tags.

Nome Tipo Description
boost

number (double)

Um multiplicador para a pontuação bruta. Deve ser um número positivo não igual a 1,0.

fieldName

string

O nome do campo usado como entrada para a função de pontuação.

interpolation

ScoringFunctionInterpolation

Um valor que indica como o aumento será interpolado entre as pontuações do documento; o padrão é "Linear".

tag

TagScoringParameters

Valores de parâmetro para a função de pontuação de tag.

type string:

tag

Indica o tipo de função a ser usada. Os valores válidos incluem magnitude, atualização, distância e tag. O tipo de função deve ser minúsculo.

TagScoringParameters

Fornece valores de parâmetro para uma função de pontuação de tag.

Nome Tipo Description
tagsParameter

string

O nome do parâmetro passado em consultas de pesquisa para especificar a lista de tags a serem comparadas com o campo de destino.

TextWeights

Define pesos em campos de índice para os quais as correspondências devem aumentar a pontuação em consultas de pesquisa.

Nome Tipo Description
weights

object

O dicionário de pesos por campo para aumentar a pontuação do documento. As chaves são nomes de campo e os valores são os pesos de cada campo.

TokenCharacterKind

Representa classes de caracteres nas quais um filtro de token pode operar.

Valor Description
letter

Mantém as letras em fichas.

digit

Mantém dígitos em tokens.

whitespace

Mantém o espaço em branco em tokens.

punctuation

Mantém a pontuação em tokens.

symbol

Mantém os símbolos em tokens.

TokenFilterName

Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.

Valor Description
arabic_normalization

Um filtro de token que aplica o normalizador árabe para normalizar a ortografia. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Remove todos os caracteres após um apóstrofo (incluindo o próprio apóstrofo). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latim Básico") em seus equivalentes ASCII, se tais equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Forma bigramas de termos CJK gerados a partir do tokenizador padrão. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normaliza as diferenças de largura CJK. Dobra variantes ASCII de largura total no latim básico equivalente e variantes Katakana de meia largura no Kana equivalente. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Remove possessivos e pontos em inglês de siglas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Construa bigramas para termos que ocorrem com frequência durante a indexação. Os termos únicos também são indexados, com bigramas sobrepostos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Gera n-gramas do(s) tamanho(s) fornecido(s) começando pela frente ou por trás de um token de entrada. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normaliza os caracteres alemães de acordo com a heurística do algoritmo de bola de neve German2. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normaliza o texto em hindi para remover algumas diferenças nas variações ortográficas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normaliza a representação Unicode de texto em idiomas indianos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Emite cada token de entrada duas vezes, uma como palavra-chave e outra como não palavra-chave. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Um filtro kstem de alto desempenho para inglês. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Remove palavras muito longas ou muito curtas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Limita o número de tokens durante a indexação. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Normaliza o texto do token para minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Gera n-gramas do(s) tamanho(s) fornecido(s). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Aplica a normalização para persa. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Crie tokens para correspondências fonéticas. Consulte https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Usa o algoritmo de lematização de Porter para transformar o fluxo de tokens. Consulte http://tartarus.org/~martin/PorterStemmer

reverse

Inverte a cadeia de caracteres do token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normaliza o uso dos caracteres escandinavos intercambiáveis. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Dobra caracteres escandinavos åÅäæÄÆ-a> e öÖøØ-o>. Também discrimina o uso de vogais duplas aa, ae, ao, oe e oo, deixando apenas a primeira. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Cria combinações de tokens como um único token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Um filtro que deriva palavras usando um lematizador gerado pelo Snowball. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normaliza a representação Unicode do texto Soran. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Filtro de lematização específico do idioma. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Remove palavras de parada de um fluxo de token. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Apara os espaços em branco à esquerda e à direita dos tokens. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Trunca os termos para um comprimento específico. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Filtra tokens com o mesmo texto do token anterior. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normaliza o texto do token para maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras.

TruncateTokenFilter

Trunca os termos para um comprimento específico. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

length

integer (int32)

maximum: 300
300

A duração em que os termos serão truncados. O padrão e o máximo são 300.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

UaxUrlEmailTokenizer

Tokeniza urls e e-mails como um token. Esse tokenizador é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Um fragmento de URI que especifica o tipo de criador de token.

maxTokenLength

integer (int32)

maximum: 300
255

O comprimento máximo do token. O padrão é 255. Tokens maiores que o comprimento máximo são divididos. O comprimento máximo do token que pode ser usado é de 300 caracteres.

name

string

O nome do tokenizador. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

UniqueTokenFilter

Filtra tokens com o mesmo texto do token anterior. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

onlyOnSamePosition

boolean

False

Um valor que indica se as duplicatas devem ser removidas apenas na mesma posição. O padrão é false.

VectorEncodingFormat

O formato de codificação para interpretar o conteúdo do campo vetorial.

Valor Description
packedBit

Formato de codificação que representa bits empacotados em um tipo de dados mais amplo.

VectorSearch

Contém opções de configuração relacionadas à pesquisa vetorial.

Nome Tipo Description
algorithms VectorSearchAlgorithmConfiguration[]:

Contém opções de configuração específicas para o algoritmo usado durante a indexação ou consulta.

compressions VectorSearchCompressionConfiguration[]:

Contém opções de configuração específicas para o método de compactação usado durante a indexação ou consulta.

profiles

VectorSearchProfile[]

Define combinações de configurações a serem usadas com a pesquisa vetorial.

vectorizers VectorSearchVectorizer[]:

Contém opções de configuração sobre como vetorizar consultas vetoriais de texto.

VectorSearchAlgorithmKind

O algoritmo usado para indexação e consulta.

Valor Description
hnsw

HNSW (Hierarchical Navigable Small World), um tipo de algoritmo aproximado de vizinhos mais próximos.

exhaustiveKnn

Algoritmo KNN exaustivo que executará a pesquisa de força bruta.

VectorSearchAlgorithmMetric

A métrica de similaridade a ser usada para comparações vetoriais. É recomendável escolher a mesma métrica de similaridade na qual o modelo de inserção foi treinado.

Valor Description
cosine

Mede o ângulo entre os vetores para quantificar sua semelhança, desconsiderando a magnitude. Quanto menor o ângulo, mais próxima a semelhança.

euclidean

Calcula a distância em linha reta entre vetores em um espaço multidimensional. Quanto menor a distância, mais próxima a semelhança.

dotProduct

Calcula a soma dos produtos elementares para medir o alinhamento e a semelhança de magnitude. Quanto maior e mais positivo, mais próxima a semelhança.

hamming

Aplicável apenas a tipos de dados binários empacotados com bits. Determina a dissimilaridade contando posições diferentes em vetores binários. Quanto menos diferenças, mais próxima a semelhança.

VectorSearchCompressionKind

O método de compactação usado para indexação e consulta.

Valor Description
scalarQuantization

Quantização escalar, um tipo de método de compressão. Na quantização escalar, os valores dos vetores originais são compactados para um tipo mais estreito, discretizando e representando cada componente de um vetor usando um conjunto reduzido de valores quantizados, reduzindo assim o tamanho geral dos dados.

binaryQuantization

Quantização binária, um tipo de método de compressão. Na quantização binária, os valores dos vetores originais são compactados para o tipo binário mais estreito, discretizando e representando cada componente de um vetor usando valores binários, reduzindo assim o tamanho geral dos dados.

VectorSearchCompressionRescoreStorageMethod

O método de armazenamento para os vetores originais de precisão total usados para operações de repontuação e índice interno.

Valor Description
preserveOriginals

Essa opção preserva os vetores originais de precisão total. Escolha essa opção para obter o máximo de flexibilidade e a mais alta qualidade dos resultados de pesquisa compactados. Isso consome mais armazenamento, mas permite a remarcação e a sobreamostragem.

discardOriginals

Essa opção descarta os vetores originais de precisão total. Escolha essa opção para obter o máximo de economia de armazenamento. Como essa opção não permite repontuação e sobreamostragem, geralmente causará reduções leves a moderadas na qualidade.

VectorSearchCompressionTargetDataType

O tipo de dados quantizados de valores vetoriais compactados.

Valor Description
int8

VectorSearchProfile

Define uma combinação de configurações a serem usadas com a pesquisa vetorial.

Nome Tipo Description
algorithm

string

O nome da configuração do algoritmo de pesquisa vetorial que especifica o algoritmo e os parâmetros opcionais.

compression

string

O nome da configuração do método de compactação que especifica o método de compactação e os parâmetros opcionais.

name

string

O nome a ser associado a esse perfil de pesquisa vetorial específico.

vectorizer

string

O nome da vetorização que está sendo configurada para uso com a pesquisa vetorial.

VectorSearchVectorizerKind

O método de vetorização a ser usado durante o tempo de consulta.

Valor Description
azureOpenAI

Gere inserções usando um recurso do OpenAI do Azure no momento da consulta.

customWebApi

Gere inserções usando um ponto de extremidade da Web personalizado no momento da consulta.

WebApiParameters

Especifica as propriedades para se conectar a um vetorizador definido pelo usuário.

Nome Tipo Description
authIdentity SearchIndexerDataIdentity:

A identidade gerenciada atribuída pelo usuário usada para conexões de saída. Se um authResourceId for fornecido e não for especificado, a identidade gerenciada atribuída pelo sistema será usada. Nas atualizações do indexador, se a identidade não for especificada, o valor permanecerá inalterado. Se definido como "nenhum", o valor dessa propriedade será limpo.

authResourceId

string

Aplica-se a pontos de extremidade personalizados que se conectam ao código externo em uma função do Azure ou em algum outro aplicativo que fornece as transformações. Esse valor deve ser a ID do aplicativo criada para a função ou aplicativo quando ele foi registrado no Azure Active Directory. Quando especificada, a vetorização se conecta à função ou ao aplicativo usando uma ID gerenciada (atribuída pelo sistema ou pelo usuário) do serviço de pesquisa e o token de acesso da função ou do aplicativo, usando esse valor como a ID do recurso para criar o escopo do token de acesso.

httpHeaders

object

Os cabeçalhos necessários para fazer a solicitação HTTP.

httpMethod

string

O método para a solicitação HTTP.

timeout

string (duration)

O tempo limite desejado para a solicitação. O padrão é 30 segundos.

uri

string (uri)

O URI da API Web que fornece o vetorizador.

WebApiVectorizer

Especifica um vetorizador definido pelo usuário para gerar a incorporação vetorial de uma cadeia de caracteres de consulta. A integração de um vetorizador externo é obtida usando a interface de API Web personalizada de um conjunto de habilidades.

Nome Tipo Description
customWebApiParameters

WebApiParameters

Especifica as propriedades do vetorizador definido pelo usuário.

kind string:

customWebApi

O nome do tipo de método de vetorização que está sendo configurado para uso com a pesquisa vetorial.

name

string

O nome a ser associado a esse método de vetorização específico.

WordDelimiterTokenFilter

Divide palavras em subpalavras e executa transformações opcionais em grupos de subpalavras. Esse filtro de token é implementado usando o Apache Lucene.

Nome Tipo Valor padrão Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Um fragmento de URI que especifica o tipo de filtro de token.

catenateAll

boolean

False

Um valor que indica se todas as partes da subpalavra serão catenadas. Por exemplo, se isso for definido como true, "Azure-Search-1" se tornará "AzureSearch1". O padrão é false.

catenateNumbers

boolean

False

Um valor que indica se as execuções máximas de partes numéricas serão catenadas. Por exemplo, se isso for definido como true, "1-2" se tornará "12". O padrão é false.

catenateWords

boolean

False

Um valor que indica se o máximo de execuções de partes de palavras será catenado. Por exemplo, se isso for definido como true, "Azure-Search" se tornará "AzureSearch". O padrão é false.

generateNumberParts

boolean

True

Um valor que indica se as subpalavras numéricas devem ser geradas. O padrão é true.

generateWordParts

boolean

True

Um valor que indica se as palavras de parte devem ser geradas. Se definido, faz com que partes de palavras sejam geradas; por exemplo, "AzureSearch" torna-se "Azure" "Search". O padrão é true.

name

string

O nome do filtro de token. Ele deve conter apenas letras, dígitos, espaços, traços ou sublinhados, só pode começar e terminar com caracteres alfanuméricos e é limitado a 128 caracteres.

preserveOriginal

boolean

False

Um valor que indica se as palavras originais serão preservadas e adicionadas à lista de subpalavras. O padrão é false.

protectedWords

string[]

Uma lista de tokens a serem protegidos de serem delimitados.

splitOnCaseChange

boolean

True

Um valor que indica se as palavras devem ser divididas em caseChange. Por exemplo, se isso for definido como true, "AzureSearch" se tornará "Azure" "Search". O padrão é true.

splitOnNumerics

boolean

True

Um valor que indica se os números devem ser divididos. Por exemplo, se isso for definido como true, "Azure1Search" se tornará "Azure" "1" "Search". O padrão é true.

stemEnglishPossessive

boolean

True

Um valor que indica se os "'s" à direita devem ser removidos para cada subpalavra. O padrão é true.