CNTK:从 numpy 数组创建用于多 GPU 训练的小批量源



我在 numpy 数组中预处理的图像数据,我的脚本通过馈送 numpy 数组在单个 GPU 上运行良好。据我了解,我们需要为多个 GPU 训练创建 MinibatchSource。我正在检查此示例 (ConvNet_CIFAR10_DataAug_Distributed.py( 进行分布式训练,但它使用 *_map.txt 它基本上是图像文件(例如.png(的路径列表。我想知道从 numpy 数组创建 MinibatchSource 的最佳方法是什么,而不是将 numpy 数组转换回 png 文件。

您可以创建将多个图像反序列化程序组合到一个源中的复合读取器。首先,您需要创建两个地图文件(带有虚拟标注(。一个将包含所有输入图像,另一个将包含相应的目标图像。以下代码是最小实现,假设文件称为 map1.txtmap2.txt

import numpy as np
import cntk as C
import cntk.io.transforms as xforms 
import sys
def create_reader(map_file1, map_file2):
    transforms = [xforms.scale(width=224, height=224, channels=3, interpolations='linear')]
    source1 = C.io.ImageDeserializer(map_file1, C.io.StreamDefs(
        source_image = C.io.StreamDef(field='image', transforms=transforms)))
    source2 = C.io.ImageDeserializer(map_file2, C.io.StreamDefs(
        target_image = C.io.StreamDef(field='image', transforms=transforms)))
    return C.io.MinibatchSource([source1, source2], max_samples=sys.maxsize, randomize=True)
x = C.input_variable((3,224,224))
y = C.input_variable((3,224,224))
# world's simplest model
model = C.layers.Convolution((3,3),3, pad=True)
z = model(x)
loss = C.squared_error(z, y)
reader = create_reader("map1.txt", "map2.txt")
trainer = C.Trainer(z, loss, C.sgd(z.parameters, C.learning_rate_schedule(.00001, C.UnitType.minibatch)))
minibatch_size = 2
input_map={
    x: reader.streams.source_image,
    y: reader.streams.target_image
}
for i in range(30):
    data=reader.next_minibatch(minibatch_size, input_map=input_map)
    print(data)
    trainer.train_minibatch(data)

最新更新