🚩🚩🚩Hugging Face 实战系列 总目录
有任何问题欢迎在下面留言本篇文章的代码运行界面均在Jupyter Notebook中进行本篇文章配套的代码资源已经上传
下篇内容:Hugging Face实战-系列教程9:GLUE数据集/文本分类下(NLP实战/Transformer实战/预训练模型/分词器/模型微调/模型自动选择/PyTorch版本/代码逐行解析)
模型训练的流程代码是不是特别特别多啊?有的童鞋看过Bert那个源码写的特别特别详细,参数贼多,运行一个模型百八十个参数的。
Transformer对NLP的理解是一个大道至简的感觉,Hugging Face的老板接受采访的时候讲过他想给算法人提供一个非常简单实用的模板,因为NLP本身做的就是一个非常简单的事情。但是由于一些开源项目的门槛过高,所以大家用起来特别麻烦。Hugging Face的老板只用了30个做兼职的人就把NLP的江山打下来了,微软、谷歌、openAI、Facebook真的直接哭死。
1、数据集与模型
这些数据集都可以直接用:点我直达数据集链接
咱们今天玩这个(GLUE):点我直达GLUE数据集
1.1背景
Hugging Face不仅仅是Transformer,你点开可以看到非常重要的四个大模块。
首先是提供了Transformers本身的工具包源码
首先是tokenizers,一个高效的分词器,对文本数据进行预处理,你别管是用什么语言做的,用就完了。实际上最核心的东西就是tokenizers,对于我们来说是一个开箱即用的过程,但是开发出这个工具确实需要特别大的成本和代价。
然后是数据集,你别一个模型一个数据集了,全部用统一格式的数据集吧。实际上人家在下一盘大棋,不仅给你提供API,还要提供数据集,统一了数据格式,以后真竞争不过它。与此同时想想,国内还在天天“遥遥领先!遥遥领先!遥遥领先!”
如果你用非常高端的GPU来训练,提供一个加速包让你更够有更高的效率去训练,帮你发挥出高端设备的能力。
1.2 数据集构建
首先是dataset这个安装包,真的很简单,直接pip install就行了:
pip install datasets
glue数据集是NLP中Hello World级别的数据集,但是它却包含来各大经典任务,执行下面的代码后,就会进行下载:
import warnings
warnings.filterwarnings("ignore")
from datasets import load_dataset#https://github.com/huggingface/datasets
raw_datasets = load_dataset("glue", "mrpc")
raw_datasets
执行后的提示:
Using the latest cached version of the module from
C:\Users\Administrator.cache\huggingface\modules\datasets_modules\datasets\glue\dacbe3125aa31d7f70367a07a8a9e72a5a0bfeb5fc42e75c9db75b96da6053ad
(last modified on Sun May 1 15:59:37 2022) since it couldn’t be found
locally at glue., or remotely on the Hugging Face Hub. Reusing dataset
glue
(C:\Users\Administrator.cache\huggingface\datasets\glue\mrpc\1.0.0\dacbe3125aa31d7f70367a07a8a9e72a5a0bfeb5fc42e75c9db75b96da6053ad)
所以,该整还是得整,代码执行后的输出:
A Jupyter Widget DatasetDict({
train: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’],
num_rows: 3668
})
validation: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’],
num_rows: 408
})
test: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’],
num_rows: 1725
}) })
解释一下上面的数据,看看公开数据集到底长啥样子
- train:( train: Dataset、validation: Dataset、test: Dataset)这三个分别表示训练、验证、测试集,很简单不用讲
- sentence1 & sentence2:分别是两个句子
- label:表示的是标签,标签意义是这两个句子之间有没有相关性
- idx:这个样本的索引,然后后面的
- num_rows:表示在训练集中一共有3668行数据,每行数据都包含了两个句子和一个标签,一个索引
选择训练集的第100号样本,打印出来看看,代码:
raw_train_dataset = raw_datasets["train"]
raw_train_dataset[100]
打印:
{‘idx’: 114, ‘label’: 0, ‘sentence1’: ‘The Nasdaq composite index inched up 1.28 , or 0.1 percent , to 1,766.60 , following a weekly win
of 3.7 percent .’, ‘sentence2’: ‘The technology-laced Nasdaq Composite Index .IXIC was off 24.44 points , or 1.39 percent , at 1,739.87 .’}
idx索引不用去管,label为0,是二分类的,然后是两个句子,这就是一个实际的数据集,公开数据集。
1.3 HuggingFace官网的数据集
在官网的datasets中搜索glue,打开后可以看到很多数据集,其中的mrpc就是刚刚加载的数据集,可以看到很多预览的东西,后续可以自己慢慢去看。
2、处理数据
2.1 单条数据处理
使用AutoTokenizer来处理数据
from transformers import AutoTokenizer
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
从Transformer中导入AutoTokenizer,将一个经典模型读进来,现成的分词器去分这两句话:
inputs = tokenizer("This is the first sentence.", "This is the second one.")
inputs
打印结果:
{‘input_ids’: [101, 2023, 2003, 1996, 2034, 6251, 1012, 102, 2023,
2003, 1996, 2117, 2028, 1012, 102], ‘token_type_ids’: [0, 0, 0, 0, 0,
0, 0, 0, 1, 1, 1, 1, 1, 1, 1], ‘attention_mask’: [1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1]}
这个分词器有没有什么不一样呢?
input_ids 和attention_mask之前提到过,这个token_type_ids呢?
现在的输入是两句话,但是即便你输入的是两句话,也会将你的两句话合为一体(你仔细观察input_ids 就知道了)。但是为什么是会将两句话合成一句话呢?是跟你选择得模型有关的!
但是我怎么知道怎么选模型呢?
你再看看Hugging Face的官网,点开Models,在左边可以根据任务类型进行选择分类,然后在右边选择模型
你们真是赶上好时候了,保姆级教程直接给你了。在三四年前,你做一个NLP任务,跑通一个模型贼费劲,该一个源码真给你干吐血来。
说回前面的token_type_ids,0就表示的第一句话,1表示第二句话。
把ID解码出来看看,代码:
tokenizer.convert_ids_to_tokens(inputs["input_ids"])
打印结果:
[‘[CLS]’, ‘this’, ‘is’, ‘the’, ‘first’, ‘sentence’, ‘.’, ‘[SEP]’,
‘this’, ‘is’, ‘the’, ‘second’, ‘one’, ‘.’, ‘[SEP]’]
2.2 对所有数据进行处理
当我们对数据进行预处理的时候,两种方法做,一种是使用pandas工具包,清洗一遍数据。第二种就是官方强烈推荐的map方法去做的所有的数据预处理。
我们的任务有两句话,是要一起做一个tokenizer。先定义一个函数:
def tokenize_function(example):
return tokenizer(example["sentence1"], example["sentence2"], truncation=True)
在执行map这个函数的时候,会对每一个样本都执行这个函数的操作,数据集的所有数据都会映射为向量:
tokenized_datasets = raw_datasets.map(tokenize_function, batched=True)
tokenized_datasets
提示:
Loading cached processed dataset at
C:\Users\Administrator.cache\huggingface\datasets\glue\mrpc\1.0.0\dacbe3125aa31d7f70367a07a8a9e72a5a0bfeb5fc42e75c9db75b96da6053ad\cache-fcf7d43fefa50575.arrow
Loading cached processed dataset at
C:\Users\Administrator.cache\huggingface\datasets\glue\mrpc\1.0.0\dacbe3125aa31d7f70367a07a8a9e72a5a0bfeb5fc42e75c9db75b96da6053ad\cache-6c207e4b2226e7c9.arrow
打印结果:
A Jupyter Widget DatasetDict({
train: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’, ‘input_ids’, ‘token_type_ids’, ‘attention_mask’],
num_rows: 3668
})
validation: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’, ‘input_ids’, ‘token_type_ids’, ‘attention_mask’],
num_rows: 408
})
test: Dataset({
features: [‘sentence1’, ‘sentence2’, ‘label’, ‘idx’, ‘input_ids’, ‘token_type_ids’, ‘attention_mask’],
num_rows: 1725
}) })
map函数有一个好处就是指定batched=True,分布式的东西自己研究多麻烦。
看一下上面的输出,映射完后有什么,看看前面我们有几个字段:
features: ['sentence1', 'sentence2', 'label', 'idx']
映射完之后有几个字段:
features: ['sentence1', 'sentence2', 'label', 'idx', 'input_ids', 'token_type_ids', 'attention_mask']
多了后面几个,都是tokenizer生成的。当我们有了tokenizer生成的input_ids、token_type_ids、attention_mask前面的还需要吗?
前面的我们都不需要了,都需要删掉,后面会讲怎么删掉哈。
2.3数据封装
在NLP中怎么做数据的DataLoader呢?还是调用PyTorch的DataLoader包吗?不是的!
我们的数据已经做来分词处理,但是还没有进行封装,是不能进入模型处理的。
from transformers import DataCollatorWithPadding
data_collator = DataCollatorWithPadding(tokenizer=tokenizer)
这里为什么会有一个withPadding呢?在数据打包的时候保证64个样本数据长度都是一致的
将结果打印一下:
tokenized_datasets["train"][0]
notebook打印结果:
{‘attention_mask’: [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1], ‘idx’: 0, ‘input_ids’: [101, 2572, 3217, 5831, 5496,
2010, 2567, 1010, 3183, 2002, 2170, 1000, 1996, 7409, 1000,
1010, 1997, 9969, 4487, 23809, 3436, 2010, 3350, 1012, 102,
7727, 2000, 2032, 2004, 2069, 1000, 1996, 7409, 1000, 1010,
2572, 3217, 5831, 5496, 2010, 2567, 1997, 9969, 4487, 23809,
3436, 2010, 3350, 1012, 102], ‘label’: 1, ‘sentence1’: ‘Amrozi
accused his brother , whom he called " the witness " , of deliberately
distorting his evidence .’, ‘sentence2’: ‘Referring to him as only "
the witness " , Amrozi accused his brother of deliberately distorting
his evidence .’, ‘token_type_ids’: [0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1]}
将数据取出来看看呗:
samples = tokenized_datasets["train"][:8]#取到所有的列
samples = {k: v for k, v in samples.items() if k not in ["idx", "sentence1", "sentence2"]}#不需要这些列
[len(x) for x in samples["input_ids"]]#每一个样本的长度
- 第一行:取出数据集,取训练集,取前八个样本,sample即为训练集的前八个样本
- 第二行:一个列表推导式,将[“idx”, “sentence1”, “sentence2”]这三个列过滤掉,剩下的做成字典,k为列名,v为列值
- 第三行:依次打印出每个样本的长度
打印结果:
[50, 59, 47, 67, 59, 50, 62, 32]
8个样本长度都不同?在我们任务中样本长度必须得相同啊。
经过data_collator处理之后,所有的样本长度都是固定的,再用k:v的形式打印一下
batch = data_collator(samples)
{k: v.shape for k, v in batch.items()}
打印结果:
{‘attention_mask’:
torch.Size([8, 67]),
‘input_ids’: torch.Size([8, 67]),
‘labels’: torch.Size([8]),
‘token_type_ids’: torch.Size([8, 67])}
结果就是按照最大值取,全是8*67了
下篇内容:Hugging Face实战-系列教程9:GLUE数据集/文本分类下(NLP实战/Transformer实战/预训练模型/分词器/模型微调/模型自动选择/PyTorch版本/代码逐行解析)