mindspore.dataset.text.transforms.RegexTokenizer
- class mindspore.dataset.text.transforms.RegexTokenizer(delim_pattern, keep_delim_pattern='', with_offsets=False)[源代码]
根据正则表达式对字符串进行分词。
有关支持的正则表达式的模式,请参阅 https://unicode-org.github.io/icu/userguide/strings/regexp.html。
Note
Windows平台尚不支持 RegexTokenizer 。
参数:
delim_pattern (str) - 以正则表达式表示的分隔符,字符串将被正则匹配的分隔符分割。
keep_delim_pattern (str, 可选) - 如果被 delim_pattern 匹配的字符串也能被 keep_delim_pattern 匹配,就可以此分隔符作为标记(token)保存。 默认值:’’(空字符),即分隔符不会作为输出标记保留。
with_offsets (bool, 可选) - 是否输出分词标记(token)的偏移量,默认值:False,不输出。
异常:
TypeError - 参数 delim_pattern 的类型不是str。
TypeError - 参数 keep_delim_pattern 的类型不是str。
TypeError - 参数 with_offsets 的类型不是bool。
- 支持平台:
CPU
样例:
>>> # If with_offsets=False, default output is one column {["text", dtype=str]} >>> delim_pattern = r"[ |,]" >>> tokenizer_op = text.RegexTokenizer(delim_pattern, with_offsets=False) >>> text_file_dataset = text_file_dataset.map(operations=tokenizer_op) >>> # If with_offsets=True, then output three columns {["token", dtype=str], >>> # ["offsets_start", dtype=uint32], >>> # ["offsets_limit", dtype=uint32]} >>> tokenizer_op = text.RegexTokenizer(delim_pattern, with_offsets=True) >>> text_file_dataset_1 = text_file_dataset_1.map(operations=tokenizer_op, input_columns=["text"], ... output_columns=["token", "offsets_start", ... "offsets_limit"], ... column_order=["token", "offsets_start", ... "offsets_limit"])