from transformers import BertTokenizer
tokenizer = BertTokenizer.from_pretrained(
pretrained_model_name_or_path='bert-base-chinese', # 通常编码工具和模型名字一致
cache_dir=None, # 编码工具的缓存路径
force_download=False, # 是否强制下载,当为True时,无论是否有本地缓存,都会强制下载
text_pair=sents[1], # 如果只想编码一个句子,可设置text_pair=None
truncation=True, # 当句子长度大于max_length时截断
padding='max_length', # 一律补PAD,直到max_length长度
add_special_tokens=True, # 需要在句子中添加特殊符号
return_tensors=None, # 返回的数据类型为list格式,也可以赋值为tf、pt、np,分别表示TensorFlow、PyTorch、NumPy数据格式
print(tokenizer.decode(out))