Redrock Postgres 搜索 英文
版本: 9.3 / 9.4 / 9.5 / 9.6 / 10 / 11 / 12 / 13 / 14 / 15 / 16 / 17

12.8. 全文检索的测试和调试 #

12.8.1. 配置测试
12.8.2. 解析器测试
12.8.3. 字典测试

自定义文本搜索配置的行为很容易变得混乱。本节中描述的功能对于测试文本搜索对象很有用。您可以测试完整配置,也可以分别测试解析器和字典。

12.8.1. 配置测试 #

函数 ts_debug 允许轻松测试文本搜索配置。

ts_debug([ config regconfig, ] document text,
         OUT alias text,
         OUT description text,
         OUT token text,
         OUT dictionaries regdictionary[],
         OUT dictionary regdictionary,
         OUT lexemes text[])
         returns setof record

ts_debug 显示有关解析器产生的并通过配置的字典处理的 document 的每一个标记的信息。它使用 config 指定的配置,如果省略该参数,则使用 default_text_search_config

ts_debug 为解析器在文本中识别的每个标记返回一行。返回的列为

  • alias text — 标记类型的简称

  • description text — 标记类型的描述

  • token text — 标记的文本

  • dictionaries regdictionary[] — 配置为此标记类型选择的字典

  • dictionary regdictionary — 识别标记的字典,如果没有字典识别则为 NULL

  • lexemes text[] — 识别标记的字典生成的词素,如果没有字典识别则为 NULL;空数组 ({}) 表示该标记被识别为停用词

这是一个简单的示例

SELECT * FROM ts_debug('english', 'a fat  cat sat on a mat - it ate a fat rats');
   alias   |   description   | token |  dictionaries  |  dictionary  | lexemes
-----------+-----------------+-------+----------------+--------------+---------
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | fat   | {english_stem} | english_stem | {fat}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | cat   | {english_stem} | english_stem | {cat}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | sat   | {english_stem} | english_stem | {sat}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | on    | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | mat   | {english_stem} | english_stem | {mat}
 blank     | Space symbols   |       | {}             |              |
 blank     | Space symbols   | -     | {}             |              |
 asciiword | Word, all ASCII | it    | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | ate   | {english_stem} | english_stem | {ate}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | fat   | {english_stem} | english_stem | {fat}
 blank     | Space symbols   |       | {}             |              |
 asciiword | Word, all ASCII | rats  | {english_stem} | english_stem | {rat}

为了更全面地演示,我们首先为英语语言创建了一个 public.english 配置和 Ispell 字典

CREATE TEXT SEARCH CONFIGURATION public.english ( COPY = pg_catalog.english );

CREATE TEXT SEARCH DICTIONARY english_ispell (
    TEMPLATE = ispell,
    DictFile = english,
    AffFile = english,
    StopWords = english
);

ALTER TEXT SEARCH CONFIGURATION public.english
   ALTER MAPPING FOR asciiword WITH english_ispell, english_stem;
SELECT * FROM ts_debug('public.english', 'The Brightest supernovaes');
   alias   |   description   |    token    |         dictionaries          |   dictionary   |   lexemes
-----------+-----------------+-------------+-------------------------------+----------------+-------------
 asciiword | Word, all ASCII | The         | {english_ispell,english_stem} | english_ispell | {}
 blank     | Space symbols   |             | {}                            |                |
 asciiword | Word, all ASCII | Brightest   | {english_ispell,english_stem} | english_ispell | {bright}
 blank     | Space symbols   |             | {}                            |                |
 asciiword | Word, all ASCII | supernovaes | {english_ispell,english_stem} | english_stem   | {supernova}

在这个示例中,单词 Brightest 被解析器识别为 ASCII 单词(别名 asciiword)。对于此标记类型,字典列表是 english_ispellenglish_stem。该单词被 english_ispell 识别,它将其简化为名词 bright。单词 supernovaesenglish_ispell 字典未知,因此它被传递给下一个字典,并且幸运地,它被识别了(事实上,english_stem 是一个可以识别所有单词的 Snowball 字典;这就是它被放置在字典列表末尾的原因)。

单词 Theenglish_ispell 字典识别为停用词(第 12.6.1 节),不会被编入索引。空格也被丢弃,因为配置根本没有为它们提供任何字典。

您可以通过明确指定您希望看到的列来降低输出宽度

SELECT alias, token, dictionary, lexemes
FROM ts_debug('public.english', 'The Brightest supernovaes');
   alias   |    token    |   dictionary   |   lexemes
-----------+-------------+----------------+-------------
 asciiword | The         | english_ispell | {}
 blank     |             |                |
 asciiword | Brightest   | english_ispell | {bright}
 blank     |             |                |
 asciiword | supernovaes | english_stem   | {supernova}

12.8.2. 解析器测试 #

下列函数允许直接测试文本搜索解析器。

ts_parse(parser_name text, document text,
         OUT tokid integer, OUT token text) returns setof record
ts_parse(parser_oid oid, document text,
         OUT tokid integer, OUT token text) returns setof record

ts_parse 解析所给的 document 并返回一系列记录,其中一个记录对应于解析产生的每个标记。每个记录都包含一个 tokid,显示分配的标记类型和一个 token,即标记文本。例如

SELECT * FROM ts_parse('default', '123 - a number');
 tokid | token
-------+--------
    22 | 123
    12 |
    12 | -
     1 | a
    12 |
     1 | number
ts_token_type(parser_name text, OUT tokid integer,
              OUT alias text, OUT description text) returns setof record
ts_token_type(parser_oid oid, OUT tokid integer,
              OUT alias text, OUT description text) returns setof record

ts_token_type 返回一个表,描述指定解析器可以识别的每种标记类型。对于每种类别的标记,该表会给出整数 tokid,该解析器用于标记该类别的标记,alias,在配置命令中指定标记类别名,以及简短的 description。例如

SELECT * FROM ts_token_type('default');
 tokid |      alias      |               description
-------+-----------------+------------------------------------------
     1 | asciiword       | Word, all ASCII
     2 | word            | Word, all letters
     3 | numword         | Word, letters and digits
     4 | email           | Email address
     5 | url             | URL
     6 | host            | Host
     7 | sfloat          | Scientific notation
     8 | version         | Version number
     9 | hword_numpart   | Hyphenated word part, letters and digits
    10 | hword_part      | Hyphenated word part, all letters
    11 | hword_asciipart | Hyphenated word part, all ASCII
    12 | blank           | Space symbols
    13 | tag             | XML tag
    14 | protocol        | Protocol head
    15 | numhword        | Hyphenated word, letters and digits
    16 | asciihword      | Hyphenated word, all ASCII
    17 | hword           | Hyphenated word, all letters
    18 | url_path        | URL path
    19 | file            | File or path name
    20 | float           | Decimal notation
    21 | int             | Signed integer
    22 | uint            | Unsigned integer
    23 | entity          | XML entity

12.8.3. 字典测试 #

ts_lexize 函数方便字典测试。

ts_lexize(dict regdictionary, token text) returns text[]

ts_lexize 返回一个语素数组,如果字典知道输入 token,或者返回一个空数组,如果字典知道该标记但它是停止词,或者返回 NULL,如果它是一个未知词。

示例

SELECT ts_lexize('english_stem', 'stars');
 ts_lexize
-----------
 {star}

SELECT ts_lexize('english_stem', 'a');
 ts_lexize
-----------
 {}

注释

ts_lexize 函数期望单个 token,而不是文本。这可能会产生混淆

SELECT ts_lexize('thesaurus_astro', 'supernovae stars') is null;
 ?column?
----------
 t

同义词词典 thesaurus_astro 知道短语 supernovae stars,但 ts_lexize 失败,因为它不解析输入文本,而是将其视为单个标记。使用 plainto_tsqueryto_tsvector 测试同义词词典,例如

SELECT plainto_tsquery('supernovae stars');
 plainto_tsquery
-----------------
 'sn'