我正在编写一个使用OpenCv神经网络模块以及c#和OpenCvSharp库的程序。它必须识别用户的脸,所以为了训练网络,我需要一组样本。问题是如何将样本图像转换成适合训练的数组。我得到的是200x200的位图图像,以及40000个输入神经元,200个隐藏神经元和一个输出的网络:
CvMat layerSizes = Cv.CreateMat(3, 1, MatrixType.S32C1);
layerSizes[0, 0] = 40000;
layerSizes[1, 0] = 200;
layerSizes[2, 0] = 1;
Network = new CvANN_MLP(layerSizes,MLPActivationFunc.SigmoidSym,0.6,1);
然后我尝试将位图图像转换为CvMat数组:
private void getTrainingMat(int cell_count, CvMat trainMAt, CvMat responses)
{
CvMat res = Cv.CreateMat(cell_count, 10, MatrixType.F32C1);//10 is a number of samples
responses = Cv.CreateMat(10, 1, MatrixType.F32C1);//array of supposed outputs
int counter = 0;
foreach (Bitmap b in trainSet)
{
IplImage img = BitmapConverter.ToIplImage(b);
Mat imgMat = new Mat(img);
for (int i=0;i<imgMat.Height;i++)
{
for (int j = 0; j < imgMat.Width; j++)
{
int val =imgMat.Get<int>(i, j);
res[counter, 0] = imgMat.Get<int>(i, j);
}
responses[i, 0] = 1;
}
trainMAt = res;
}
}
然后,当试图训练它时,我得到了这个例外:
输入训练数据应为浮点矩阵,行数等于训练样本数,列数等于第0(输入)层的大小
培训代码:
trainMAt = Cv.CreateMat(inp_layer_size, 10, MatrixType.F32C1);
responses = Cv.CreateMat(inp_layer_size, 1, MatrixType.F32C1);
getTrainingMat(inp_layer_size, trainMAt, responses);
Network.Train(trainMAt, responses, new CvMat(),null, Parameters);
我是OpenCV的新手,我认为由于缺乏对CvMat结构的理解,我在转换时犯了一些错误。我的错误在哪里,还有其他方法来转换位图吗?
行数等于训练样本数
这是10个样本。
和等于第0(输入)层大小的列数
inp_layer_size。
trainMAt = Cv.CreateMat(10, inp_layer_size, MatrixType.F32C1);
responses = Cv.CreateMat(10, 1, MatrixType.F32C1); // 10 labels for 10 samples
我主要做c++,所以如果我误解了,请原谅我,但是你的像素循环还需要调整。
你的内部循环看起来坏了,因为你赋值给val
,但从不使用它,也从不增加你的计数器。
此外,在外部循环中为每个图像分配trainMAt = res;
似乎不是一个好主意。
我相信你会让它正确操作,只要记住这样一个事实,即目标是将每个图像扁平化成一行,所以你最终有10行和inp_layer_size
列。