Indexes - Analyze
Mostra como um analisador divide o texto em tokens.
POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2025-09-01
Parâmetros de URI
| Nome | Em | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
endpoint
|
path | True |
string |
A URL do ponto de extremidade do serviço de pesquisa. |
|
index
|
path | True |
string |
O nome do índice para o qual testar um analisador. |
|
api-version
|
query | True |
string |
Versão da API do cliente. |
Cabeçalho da solicitação
| Nome | Obrigatório | Tipo | Description |
|---|---|---|---|
| x-ms-client-request-id |
string (uuid) |
O ID de rastreamento enviado com a solicitação para ajudar na depuração. |
Corpo da solicitação
| Nome | Obrigatório | Tipo | Description |
|---|---|---|---|
| text | True |
string |
O texto para dividir em tokens. |
| analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizer e do analisador são mutuamente exclusivos. |
||
| charFilters |
Uma lista opcional de filtros de caracteres a serem usados ao quebrar o texto fornecido. Esse parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
| normalizer |
O nome do normalizador a ser usado para normalizar o texto fornecido. |
||
| tokenFilters |
Uma lista opcional de filtros de token a serem usados ao quebrar o texto fornecido. Esse parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
| tokenizer |
O nome do criador de token a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizer e do analisador são mutuamente exclusivos. |
Respostas
| Nome | Tipo | Description |
|---|---|---|
| 200 OK | ||
| Other Status Codes |
Resposta de erro. |
Exemplos
SearchServiceIndexAnalyze
Solicitação de exemplo
POST https://stableexampleservice.search.windows.net/indexes('stable-test')/search.analyze?api-version=2025-09-01
{
"text": "Text to analyze",
"analyzer": "ar.lucene"
}
Resposta de exemplo
{
"tokens": [
{
"token": "text",
"startOffset": 0,
"endOffset": 4,
"position": 0
},
{
"token": "to",
"startOffset": 5,
"endOffset": 7,
"position": 1
},
{
"token": "analyze",
"startOffset": 8,
"endOffset": 15,
"position": 2
}
]
}
Definições
| Nome | Description |
|---|---|
|
Analyzed |
Informações sobre um token retornado por um analisador. |
|
Analyze |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
|
Analyze |
O resultado do teste de um analisador em texto. |
|
Char |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. |
|
Error |
As informações adicionais do erro de gerenciamento de recursos. |
|
Error |
O detalhe do erro. |
|
Error |
Resposta de erro |
|
Lexical |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. |
|
Token |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. |
AnalyzedTokenInfo
Informações sobre um token retornado por um analisador.
| Nome | Tipo | Description |
|---|---|---|
| endOffset |
integer (int32) |
O índice do último caractere do token no texto de entrada. |
| position |
integer (int32) |
A posição do token no texto de entrada em relação a outros tokens. O primeiro token no texto de entrada tem a posição 0, o próximo tem a posição 1 e assim por diante. Dependendo do analisador usado, alguns tokens podem ter a mesma posição, por exemplo, se forem sinônimos um do outro. |
| startOffset |
integer (int32) |
O índice do primeiro caractere do token no texto de entrada. |
| token |
string |
O token retornado pelo analisador. |
AnalyzeRequest
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.
| Nome | Tipo | Description |
|---|---|---|
| analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizer e do analisador são mutuamente exclusivos. |
|
| charFilters |
Uma lista opcional de filtros de caracteres a serem usados ao quebrar o texto fornecido. Esse parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
| normalizer |
O nome do normalizador a ser usado para normalizar o texto fornecido. |
|
| text |
string |
O texto para dividir em tokens. |
| tokenFilters |
Uma lista opcional de filtros de token a serem usados ao quebrar o texto fornecido. Esse parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
| tokenizer |
O nome do criador de token a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizer e do analisador são mutuamente exclusivos. |
AnalyzeResult
O resultado do teste de um analisador em texto.
| Nome | Tipo | Description |
|---|---|---|
| tokens |
A lista de tokens retornados pelo analisador especificado na solicitação. |
CharFilterName
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| html_strip |
Um filtro de caracteres que tenta remover construções HTML. Consulte https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
ErrorAdditionalInfo
As informações adicionais do erro de gerenciamento de recursos.
| Nome | Tipo | Description |
|---|---|---|
| info |
object |
As informações adicionais. |
| type |
string |
O tipo de informação adicional. |
ErrorDetail
O detalhe do erro.
| Nome | Tipo | Description |
|---|---|---|
| additionalInfo |
As informações adicionais do erro. |
|
| code |
string |
O código de erro. |
| details |
Os detalhes do erro. |
|
| message |
string |
A mensagem de erro. |
| target |
string |
O destino do erro. |
ErrorResponse
Resposta de erro
| Nome | Tipo | Description |
|---|---|---|
| error |
O objeto de erro. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| ar.microsoft |
Microsoft analyzer for Arabic. |
| ar.lucene |
Analisador Lucene para árabe. |
| hy.lucene |
Analisador Lucene para armênio. |
| bn.microsoft |
Analisador da Microsoft para Bangla. |
| eu.lucene |
Analisador Lucene para basco. |
| bg.microsoft |
Microsoft analyzer for Bulgarian. |
| bg.lucene |
Analisador de Lucene para búlgaro. |
| ca.microsoft |
Microsoft analyzer for Catalan. |
| ca.lucene |
Analisador Lucene para catalão. |
| zh-Hans.microsoft |
Analisador da Microsoft para chinês (simplificado). |
| zh-Hans.lucene |
Analisador Lucene para chinês (simplificado). |
| zh-Hant.microsoft |
Analisador da Microsoft para chinês (tradicional). |
| zh-Hant.lucene |
Analisador de Lucene para chinês (tradicional). |
| hr.microsoft |
Microsoft analyzer para croata. |
| cs.microsoft |
Microsoft analyzer for Czech. |
| cs.lucene |
Analisador de Lucene para o checo. |
| da.microsoft |
Microsoft analyzer for Danish. |
| da.lucene |
Analisador de Lucene para dinamarquês. |
| nl.microsoft |
Microsoft analyzer for Dutch. |
| nl.lucene |
Analisador Lucene para holandês. |
| en.microsoft |
Microsoft analyzer para inglês. |
| en.lucene |
Analisador Lucene para inglês. |
| et.microsoft |
Microsoft analyzer for Estonian. |
| fi.microsoft |
Microsoft analyzer for Finlandês. |
| fi.lucene |
Analisador de Lucene para finlandês. |
| fr.microsoft |
Microsoft analyzer for French. |
| fr.lucene |
Analisador de Lucene para francês. |
| gl.lucene |
Analisador Lucene para galego. |
| de.microsoft |
Microsoft analyzer para alemão. |
| de.lucene |
Analisador Lucene para alemão. |
| el.microsoft |
Microsoft analyzer para grego. |
| el.lucene |
Analisador de Lucene para grego. |
| gu.microsoft |
Microsoft analyzer for Gujarati. |
| he.microsoft |
Analisador da Microsoft para hebraico. |
| hi.microsoft |
Analisador da Microsoft para hindi. |
| hi.lucene |
Analisador de Lucene para Hindi. |
| hu.microsoft |
Microsoft analyzer para húngaro. |
| hu.lucene |
Analisador Lucene para húngaro. |
| is.microsoft |
Microsoft analyzer para islandês. |
| id.microsoft |
Microsoft analyzer for Indonesian (Bahasa). |
| id.lucene |
Analisador de Lucene para indonésio. |
| ga.lucene |
Analisador Lucene para irlandês. |
| it.microsoft |
Microsoft analyzer for Italian. |
| it.lucene |
Analisador de Lucene para italiano. |
| ja.microsoft |
Microsoft Analyzer para japonês. |
| ja.lucene |
Analisador Lucene para japonês. |
| kn.microsoft |
Microsoft analyzer for Kannada. |
| ko.microsoft |
Microsoft analyzer para coreano. |
| ko.lucene |
Analisador de Lucene para coreano. |
| lv.microsoft |
Microsoft analyzer for Latvian. |
| lv.lucene |
Analisador de Lucene para letão. |
| lt.microsoft |
Microsoft analyzer for Lithuanian. |
| ml.microsoft |
Microsoft analyzer for Malayalam. |
| ms.microsoft |
Microsoft analyzer para malaio (latim). |
| mr.microsoft |
Microsoft analyzer for Marathi. |
| nb.microsoft |
Microsoft analyzer for Norwegian (Bokmål). |
| no.lucene |
Analisador de Lucene para norueguês. |
| fa.lucene |
Analisador de Lucene para persa. |
| pl.microsoft |
Microsoft analyzer for Polish. |
| pl.lucene |
Analisador Lucene para polonês. |
| pt-BR.microsoft |
Microsoft analyzer para português (Brasil). |
| pt-BR.lucene |
Analisador Lucene para português (Brasil). |
| pt-PT.microsoft |
Microsoft analyzer para português (Portugal). |
| pt-PT.lucene |
Analisador Lucene para português (Portugal). |
| pa.microsoft |
Microsoft analyzer for Punjabi. |
| ro.microsoft |
Microsoft analyzer para romeno. |
| ro.lucene |
Analisador de Lucene para romeno. |
| ru.microsoft |
Microsoft analyzer para russo. |
| ru.lucene |
Analisador de Lucene para o russo. |
| sr-cyrillic.microsoft |
Microsoft analyzer para sérvio (cirílico). |
| sr-latin.microsoft |
Microsoft analyzer para sérvio (latim). |
| sk.microsoft |
Microsoft analyzer for Slovak. |
| sl.microsoft |
Microsoft analyzer for Slovenian. |
| es.microsoft |
Microsoft analyzer para espanhol. |
| es.lucene |
Analisador Lucene para espanhol. |
| sv.microsoft |
Microsoft analyzer para sueco. |
| sv.lucene |
Analisador Lucene para sueco. |
| ta.microsoft |
Microsoft analyzer for Tamil. |
| te.microsoft |
Analisador da Microsoft para Telugu. |
| th.microsoft |
Microsoft analyzer for Thai. |
| th.lucene |
Analisador Lucene para tailandês. |
| tr.microsoft |
Microsoft analyzer para turco. |
| tr.lucene |
Analisador Lucene para turco. |
| uk.microsoft |
Analisador da Microsoft para ucraniano. |
| ur.microsoft |
Microsoft analyzer for Urdu. |
| vi.microsoft |
Analisador da Microsoft para vietnamita. |
| standard.lucene |
Analisador Lucene padrão. |
| standardasciifolding.lucene |
Analisador de Lucene Dobrável ASCII padrão. Consulte https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
| keyword |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, IDs e alguns nomes de produtos. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
| pattern |
Separa o texto em termos de forma flexível por meio de um padrão de expressão regular. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
| simple |
Divide o texto em letras diferentes e as converte em minúsculas. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
| stop |
Divide o texto em não-letras; Aplica os filtros de token de palavras minúsculas e palavras irrelevantes. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
| whitespace |
Um analisador que usa o tokenizer de espaço em branco. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
LexicalNormalizerName
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| asciifolding |
Converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão nos primeiros 127 caracteres ASCII (o bloco Unicode "Latim Básico") em seus equivalentes ASCII, se tais equivalentes existirem. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html |
| elision |
Remove elisões. Por exemplo, "l'avion" (o avião) será convertido em "avion" (avião). Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html |
| lowercase |
Normaliza o texto do token para minúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html |
| standard |
Normalizador padrão, que consiste em letras minúsculas e dobras ascii. Consulte http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html |
| uppercase |
Normaliza o texto do token para maiúsculas. Consulte https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html |
LexicalTokenizerName
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
TokenFilterName
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.