mindspore.dataset.text.BertTokenizer
====================================

.. py:class:: mindspore.dataset.text.BertTokenizer(vocab, suffix_indicator='##', max_bytes_per_token=100, unknown_token='[UNK]', lower_case=False, keep_whitespace=False, normalization_form=NormalizeForm.NONE, preserve_unused_token=True, with_offsets=False)

    使用Bert分词器对字符串进行分词。

    .. note:: Windows平台尚不支持 `BertTokenizer` 。

    参数:
        - **vocab** (:class:`~.text.Vocab`) - 用于查词的词汇表。
        - **suffix_indicator** (str,可选) - 用于指示子词后缀的前缀标志。默认值: ``'##'`` 。
        - **max_bytes_per_token** (int,可选) - 分词最大长度,超过此长度的词汇将不会被拆分。默认值: ``100`` 。
        - **unknown_token** (str,可选) - 对未知词汇的分词输出。当设置为空字符串时,直接返回对应未知词汇作为分词输出;否则,返回该字符串作为分词输出。默认值: ``'[UNK]'`` 。
        - **lower_case** (bool,可选) - 是否对字符串进行小写转换处理。若为 ``True`` ,会将字符串转换为小写并删除重音字符;若为 ``False`` ,将只对字符串进行规范化处理,其模式由 `normalization_form` 指定。默认值: ``False`` 。
        - **keep_whitespace** (bool,可选) - 是否在分词输出中保留空格。默认值: ``False`` 。
        - **normalization_form** (:class:`~.text.NormalizeForm`, 可选) - 想要使用的规范化模式。可选值详见 :class:`~.text.NormalizeForm` 。
          默认值: ``NormalizeForm.NFKC`` 。
        - **preserve_unused_token** (bool,可选) - 是否保留特殊词汇。若为 ``True`` ,将不会对特殊词汇进行分词,如 '[CLS]', '[SEP]', '[UNK]', '[PAD]', '[MASK]' 等。默认值: ``True`` 。
        - **with_offsets** (bool,可选) - 是否输出各Token在原字符串中的起始和结束偏移量。默认值: ``False`` 。

    异常:
        - **TypeError** - 当 `vocab` 的类型不为 :class:`mindspore.dataset.text.Vocab` 。
        - **TypeError** - 当 `suffix_indicator` 的类型不为str。
        - **TypeError** - 当 `max_bytes_per_token` 的类型不为int。
        - **ValueError** - 当 `max_bytes_per_token` 为负数。
        - **TypeError** - 当 `unknown_token` 的类型不为str。
        - **TypeError** - 当 `lower_case` 的类型不为bool。
        - **TypeError** - 当 `keep_whitespace` 的类型不为bool。
        - **TypeError** - 当 `normalization_form` 的类型不为 :class:`~.text.NormalizeForm` 。
        - **TypeError** - 当 `preserve_unused_token` 的类型不为bool。
        - **TypeError** - 当 `with_offsets` 的类型不为bool。

    教程样例:
        - `文本变换样例库
          <https://www.mindspore.cn/docs/zh-CN/r2.5.0/api_python/samples/dataset/text_gallery.html>`_