我正在尝试从语料库创建一个依赖解析器。语料库是 conll 格式的,所以我有一个函数来读取文件并返回列表列表,其中每个列表都是一个解析的句子(我正在使用的语料库已经被解析了,我的工作是在这个解析中找到另一个替代方案(。我的教授要求只随机选择这个语料库中5%的句子,因为它太大了。
我尝试创建一个空列表并使用 append 函数,但我不知道如何通过索引来指定我想要语料库每 5 个句子中的 100 个
我为转换 conll 文件所做的功能如下:
import os, nltk, glob
def read_files(path):
"""
Function to load Ancora Dependency corpora (GLICOM style)
path = full path to the files
returns de corpus in sentences
each sentence is a list of tuples
each tuple is a token with the follwoing info:
index of the token in the sentence
token
lemma
POS /es pot eliminar
POS
FEAT /es pot eliminar
head
DepRelation
"""
corpus = []
for f in glob.glob(path):
sents1 = open(f).read()[185:-2].split('nn')
sents2 = []
for n in range(len(sents1)):
sents2.append(sents1[n].split('n'))
sents3 = []
for s in sents2:
sent = []
for t in s:
sent.append(tuple(t.split('t')))
sents3.append(sent)
corpus.extend(sents3)
return corpus
我想要一种方法,在语料库中每 5 个句子中选择 100 个句子,这样我就可以拥有一个只包含这些句子的列表列表。提前感谢!
只需使用 random.sample
:
# define path here
corpus = read_files(path)
random.sample(corpus, len(corpus) // 20)
你能添加一个循环来附加列表吗?所以像这样的东西使用模运算符"%",它只会得到 5 个句子中的 100 个:
counter = 0
new_list =[]
for i in my_list:
counter = counter +1
if counter % 20 ==0:
new_list.append(i)
else:
continue