BERT - 从多个输出与单个输出中提取 CLS 嵌入



我正在使用转换器TFBertModel对一堆输入字符串进行分类,但是我想访问CLS嵌入以便能够重新平衡我的数据。

当我将数据的单个元素传递给简化伯特模型的预测方法时(为了获得 CLS 数据),我取last_hidden_state的第一个数组,瞧。但是,当我传入多行数据时,输出的形状会按预期更改,但实际的 CLS 嵌入(我第一次传入的第一行)似乎也会发生变化。

我的数据集包含输入 ID 和掩码,以及模型:

from transformers import TFBertModel
model = TFBertModel.from_pretrained('bert-base-multilingual-cased', trainable=False, num_labels=len(le.classes_))
input_ids_layer = Input(shape=(256,), dtype=np.int32)
input_mask_layer = Input(shape=(256,), dtype=np.int32)
bert_layer = model([input_ids_layer, input_mask_layer])
model = Model(inputs=[input_ids_layer, input_mask_layer], outputs=bert_layer)

然后,为了获得 CLS 嵌入,我只需调用预测方法并深入研究结果。因此,对于第一行数据(data_x[0] 是输入 ID,data_x[1] 是掩码)

output1 = model.predict([data_x[0][0], data_x[1][0]])

TFBaseModelOutputWithPooling([('last_hidden_state',
array([[[ 0.35013607, -0.5340336 ,  0.28577858, ..., -0.03405955,
-0.0165604 , -0.36481357]],

[[ 0.34572566, -0.5361709 ,  0.281771  , ..., -0.03687727,
-0.01690093, -0.35451806]],

[[ 0.34878412, -0.5399749 ,  0.28948805, ..., -0.03613809,
-0.01503076, -0.35425758]],

...,

我的理解是,句子的CLS表示是last_hidden_state的第一个数组,即:

lhs1 = output1[0]
lhs1.shape
>> (256, 1, 768)
cls1 = lhs1[0][0]
cls1
>>[0.35013607 ... -0.36481357]` (as above)

目前为止,一切都好。当我现在想从我的数据集中获取前 2 个 CLS 嵌入时,我感到困惑:

output_both = model.predict([data_x[0][:2], data_x[1][:2]])
lhs_both = output_both[0] # last hidden states
lhs_both.shape
>> (2, 256, 768)
cls_both = lhs_both[0][0] # I thought this would give me two CLS arrays including the first one above

检查cls_both

array([[[ 0.11075249, -0.02257648, -0.40831113, ...,  0.18384863,
0.17032738, -0.05989586],
[-0.22926208, -0.5627498 ,  0.2617012 , ...,  0.20701236,
0.3141808 , -0.8650396 ],
[-0.22352833, -0.49676323, -0.5286081 , ...,  0.23819353,
0.3742358 , -0.69018203],
...,
[ 0.5120927 , -0.09863365,  0.7378716 , ..., -0.19551781,
0.45915398,  0.22804889],
[-0.13397002,  0.1617202 ,  0.15663634, ..., -0.511597  ,
0.3959382 ,  0.30565232],
[-0.14100523,  0.22792323, -0.15898004, ..., -0.2690729 ,
0.4730471 ,  0.18431285]],
[[-0.20033133, -0.08412935, -0.0411438 , ...,  0.34706163,
0.1919156 , -0.08740871],
[-0.12536147, -0.44519228,  1.2984221 , ...,  0.07149828,
0.7915938 ,  0.08048639],
[ 0.4596323 , -0.3316555 ,  1.2545322 , ..., -0.02128018,
0.5344383 ,  0.32054782],
...,
[-0.54777217,  0.23129587,  0.5007771 , ...,  0.70299244,
0.27277255, -0.2848366 ],
[-0.49410668,  0.37352908,  0.8732239 , ...,  0.6065303 ,
0.152081  , -0.9312557 ],
[-0.33172935, -0.35368383,  0.5942321 , ...,  0.7171531 ,
0.24436645,  0.08909844]]], dtype=float32)

我不确定如何解释这一点 - 我的期望是看到第一行 CLScls1包含在cls_both中,但如您所见,第一个子数组中的第一行是不同的。谁能解释一下?

此外,如果我运行第二行,我会得到与第一行完全相同的 CLS 令牌,尽管它们包含完全不同的input_ids/掩码:

output2 = model.predict([data_x[0][1], data_x[1][1]])
lhs2 = output2[0]
cls2 = lhs2[0][0]

cls2
>>
[ 0.35013607, -0.5340336 ,  0.28577858, ..., -0.03405955,
-0.0165604 , -0.36481357]]
cls1 == cl2 
>> True

编辑

BERT句子嵌入:如何获得句子嵌入向量

上面的帖子解释说,output[0][:,0,:]是准确获取CLS令牌的正确方法,这使事情变得更容易。

当我运行三行时,我得到一致的结果,但是每当我运行一行时,我都会得到以cls1显示的结果 - 为什么每次都没有不同?

我认为您传入的切片data_x的形状存在问题。

由于您没有指定data_x的形状,我首先尝试在下面复制它:

text = ['a sample text','another text', 'the third text']
bert_tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
tokenizer_output = bert_tokenizer(text, return_tensors='np', max_length=256, padding='max_length')
data_x = np.array([
tokenizer_output['input_ids'], 
tokenizer_output['attention_mask']
])
print(data_x.shape)

其中data_x的形状(2, 3, 256).

data_x[0][0] 不是正确的切片方法

对于第一行数据,您通过使用data_x[0][0]data_x[1][0]进行切片来准备input_ids和attention_mask,input_ids和attention_mask的形状变为(256,)

print(data_x[0][0].shape) # (256,)
print(data_x[1][0].shape) # (256,)

而 TF 模型需要input_ids_layerinput_mask_layer的输入形状为(batch_size, 256)。请注意,提供给Inputshape参数不包括batch_size,引用自其文档:shape: A shape tuple (integers), not including the batch size.

事实上,当我尝试传递输入[data_x[0][0], data_x[1][0]] # Both with shape (256,)时,我收到了来自 Tensorflow 的以下警告:

WARNING:tensorflow:Model was constructed with shape (None, 256) for input KerasTensor(type_spec=TensorSpec(shape=(None, 256), dtype=tf.int32, name='input_3'), name='input_3', description="created by layer 'input_3'"), but it was called on an input with incompatible shape (32, 1).
...

对输入数据进行切片的正确方法

您应该在不更改张量维度的情况下对它们进行切片,以便您的input_ids和attention_mask保持(batch_size, 256)

的形式
# For first sentence only
input_1 = [data[0][0:1], data[1][0:1]] # Shape : (1,256) (1,256)
# For second sentence only
input_2 = [data[0][1:2], data[1][1:2]] # Shape : (1,256) (1,256)
# For first and second sentence
input_12 = [data[0][:2], data[1][:2]]  # Shape : (2,256) (2,256)

将上述数据传递给您的模型后,您将使用您共享的链接中所述output[0][:,0,:]获得CLF嵌入。

您可以确认第 1 句和第 2 句的嵌入相同,无论您是传入input_1input_2还是input_12

output1 = model.predict(input_1)
output2 = model.predict(input_2)
output12 = model.predict(input_12)
ihs1 = output1[0] # Shape : (1, 256, 768)
ihs2 = output2[0] # Shape : (1, 256, 768)
ihs12 = output12[0] # Shape : (2, 256, 768)
cls1 = ihs1[:,0,:] # Shape : (1, 768)
cls2 = ihs2[:,0,:] # Shape : (1, 768)
cls12 = ihs12[:,0,:] # Shape : (2, 768)
# Check that cls1 is exactly the same as cls12[0]
print((cls1 == cls12[0]).all()) # True
# Likewise, cls2 is exactly the same as cls12[1]
print((cls2 == cls12[1]).all()) # True

希望这能为您澄清问题。当您有疑问时,请始终记住检查模型的输入和输出形状。

相关内容

  • 没有找到相关文章

最新更新