图像张量的形状是否会影响结果输出



我代表100px的大小100px的图像,因此我可以具有形状(None, 100, 100, 3)或Shape (None, 10000, 3)

我在Google上找不到任何明确的解释,但是,以下两个张量会产生类似的结果吗?

  1. (None, 100, 100, 3)
  2. (None, 10000, 3)

我认为这两个都足够了,因为我认为神经网络仍然会学到同样的学习,如果图像在一行中,您的想法?

对于第一形状: ( 100 , 100 , 3 )

这是一个3维张量。如果您要使用密集的层,则需要二维输入。是的,存在1D卷积层,但它们保留给完全不同的用例。

卷积层将通过一定的大步传递内核,并会收集空间信息。然后,此内核将得到汇总,以便保留信息但尺寸较小。

因此,使用这种形状的学习会比学习要好得多 将发生空间特征。这对于图像非常好 分类。

对于第二形状:( 10000 , 3 )

这是2维张量,将与1D卷积层和密集层一起工作。

1D卷积仅通过一条直线(轴)。另外,图像的特征将在直线上对齐(所有列都将排成一列)。这将破坏图像的特征。

最终,图像是2D对象A,必须保留在其原始维度中才能促进学习。一维张量还有其他用途,例如文本分类,人类活动识别等。

最新更新