我正在使用转换器TFBertModel对一堆输入字符串进行分类,但是我想访问CLS嵌入以便能够重新平衡我的数据。
当我将数据的单个元素传递给简化伯特模型的预测方法时(为了获得 CLS 数据),我取last_hidden_state
的第一个数组,瞧。但是,当我传入多行数据时,输出的形状会按预期更改,但实际的 CLS 嵌入(我第一次传入的第一行)似乎也会发生变化。
我的数据集包含输入 ID 和掩码,以及模型:
from transformers import TFBertModel
model = TFBertModel.from_pretrained('bert-base-multilingual-cased', trainable=False, num_labels=len(le.classes_))
input_ids_layer = Input(shape=(256,), dtype=np.int32)
input_mask_layer = Input(shape=(256,), dtype=np.int32)
bert_layer = model([input_ids_layer, input_mask_layer])
model = Model(inputs=[input_ids_layer, input_mask_layer], outputs=bert_layer)
然后,为了获得 CLS 嵌入,我只需调用预测方法并深入研究结果。因此,对于第一行数据(data_x[0] 是输入 ID,data_x[1] 是掩码)
output1 = model.predict([data_x[0][0], data_x[1][0]])
TFBaseModelOutputWithPooling([('last_hidden_state',
array([[[ 0.35013607, -0.5340336 , 0.28577858, ..., -0.03405955,
-0.0165604 , -0.36481357]],
[[ 0.34572566, -0.5361709 , 0.281771 , ..., -0.03687727,
-0.01690093, -0.35451806]],
[[ 0.34878412, -0.5399749 , 0.28948805, ..., -0.03613809,
-0.01503076, -0.35425758]],
...,
我的理解是,句子的CLS表示是last_hidden_state的第一个数组,即:
lhs1 = output1[0]
lhs1.shape
>> (256, 1, 768)
cls1 = lhs1[0][0]
cls1
>>[0.35013607 ... -0.36481357]` (as above)
目前为止,一切都好。当我现在想从我的数据集中获取前 2 个 CLS 嵌入时,我感到困惑:
output_both = model.predict([data_x[0][:2], data_x[1][:2]])
lhs_both = output_both[0] # last hidden states
lhs_both.shape
>> (2, 256, 768)
cls_both = lhs_both[0][0] # I thought this would give me two CLS arrays including the first one above
检查cls_both
:
array([[[ 0.11075249, -0.02257648, -0.40831113, ..., 0.18384863,
0.17032738, -0.05989586],
[-0.22926208, -0.5627498 , 0.2617012 , ..., 0.20701236,
0.3141808 , -0.8650396 ],
[-0.22352833, -0.49676323, -0.5286081 , ..., 0.23819353,
0.3742358 , -0.69018203],
...,
[ 0.5120927 , -0.09863365, 0.7378716 , ..., -0.19551781,
0.45915398, 0.22804889],
[-0.13397002, 0.1617202 , 0.15663634, ..., -0.511597 ,
0.3959382 , 0.30565232],
[-0.14100523, 0.22792323, -0.15898004, ..., -0.2690729 ,
0.4730471 , 0.18431285]],
[[-0.20033133, -0.08412935, -0.0411438 , ..., 0.34706163,
0.1919156 , -0.08740871],
[-0.12536147, -0.44519228, 1.2984221 , ..., 0.07149828,
0.7915938 , 0.08048639],
[ 0.4596323 , -0.3316555 , 1.2545322 , ..., -0.02128018,
0.5344383 , 0.32054782],
...,
[-0.54777217, 0.23129587, 0.5007771 , ..., 0.70299244,
0.27277255, -0.2848366 ],
[-0.49410668, 0.37352908, 0.8732239 , ..., 0.6065303 ,
0.152081 , -0.9312557 ],
[-0.33172935, -0.35368383, 0.5942321 , ..., 0.7171531 ,
0.24436645, 0.08909844]]], dtype=float32)
我不确定如何解释这一点 - 我的期望是看到第一行 CLScls1
包含在cls_both
中,但如您所见,第一个子数组中的第一行是不同的。谁能解释一下?
此外,如果我只运行第二行,我会得到与第一行完全相同的 CLS 令牌,尽管它们包含完全不同的input_ids/掩码:
output2 = model.predict([data_x[0][1], data_x[1][1]])
lhs2 = output2[0]
cls2 = lhs2[0][0]
cls2
>>
[ 0.35013607, -0.5340336 , 0.28577858, ..., -0.03405955,
-0.0165604 , -0.36481357]]
cls1 == cl2
>> True
编辑
BERT句子嵌入:如何获得句子嵌入向量
上面的帖子解释说,output[0][:,0,:]
是准确获取CLS令牌的正确方法,这使事情变得更容易。
当我运行三行时,我得到一致的结果,但是每当我运行一行时,我都会得到以cls1
显示的结果 - 为什么每次都没有不同?
我认为您传入的切片data_x
的形状存在问题。
由于您没有指定data_x
的形状,我首先尝试在下面复制它:
text = ['a sample text','another text', 'the third text']
bert_tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
tokenizer_output = bert_tokenizer(text, return_tensors='np', max_length=256, padding='max_length')
data_x = np.array([
tokenizer_output['input_ids'],
tokenizer_output['attention_mask']
])
print(data_x.shape)
其中data_x
的形状(2, 3, 256)
.
data_x[0][0] 不是正确的切片方法
对于第一行数据,您通过使用data_x[0][0]
和data_x[1][0]
进行切片来准备input_ids和attention_mask,input_ids和attention_mask的形状变为(256,)
print(data_x[0][0].shape) # (256,)
print(data_x[1][0].shape) # (256,)
而 TF 模型需要input_ids_layer
和input_mask_layer
的输入形状为(batch_size, 256)
。请注意,提供给Input
的shape
参数不包括batch_size,引用自其文档:shape: A shape tuple (integers), not including the batch size.
。
事实上,当我尝试传递输入[data_x[0][0], data_x[1][0]] # Both with shape (256,)
时,我收到了来自 Tensorflow 的以下警告:
WARNING:tensorflow:Model was constructed with shape (None, 256) for input KerasTensor(type_spec=TensorSpec(shape=(None, 256), dtype=tf.int32, name='input_3'), name='input_3', description="created by layer 'input_3'"), but it was called on an input with incompatible shape (32, 1).
...
对输入数据进行切片的正确方法
您应该在不更改张量维度的情况下对它们进行切片,以便您的input_ids和attention_mask保持(batch_size, 256)
# For first sentence only
input_1 = [data[0][0:1], data[1][0:1]] # Shape : (1,256) (1,256)
# For second sentence only
input_2 = [data[0][1:2], data[1][1:2]] # Shape : (1,256) (1,256)
# For first and second sentence
input_12 = [data[0][:2], data[1][:2]] # Shape : (2,256) (2,256)
将上述数据传递给您的模型后,您将使用您共享的链接中所述output[0][:,0,:]
获得CLF嵌入。
您可以确认第 1 句和第 2 句的嵌入相同,无论您是传入input_1
、input_2
还是input_12
:
output1 = model.predict(input_1)
output2 = model.predict(input_2)
output12 = model.predict(input_12)
ihs1 = output1[0] # Shape : (1, 256, 768)
ihs2 = output2[0] # Shape : (1, 256, 768)
ihs12 = output12[0] # Shape : (2, 256, 768)
cls1 = ihs1[:,0,:] # Shape : (1, 768)
cls2 = ihs2[:,0,:] # Shape : (1, 768)
cls12 = ihs12[:,0,:] # Shape : (2, 768)
# Check that cls1 is exactly the same as cls12[0]
print((cls1 == cls12[0]).all()) # True
# Likewise, cls2 is exactly the same as cls12[1]
print((cls2 == cls12[1]).all()) # True
希望这能为您澄清问题。当您有疑问时,请始终记住检查模型的输入和输出形状。