神经网络与随机森林性能差异



我想用 PyTorch 对神经网络进行一些实验,所以我尝试了一个简单的实验作为热身练习,但我无法完全理解结果。

该练习试图从有关问题的各种统计数据(例如变量数、最大子句长度等(中预测 1000 个 TPTP 问题的评级。 数据文件 https://github.com/russellw/ml/blob/master/test.csv 非常简单,1000 行,最后一列是评级,从几十个输入列开始,所有数字都缩放到 0-1 的范围, 我逐步删除了功能,以查看结果是否仍然有效,并且确实如此,一直到一个输入列;其他版本在 Git 历史记录中的先前版本中。

我开始使用单独的训练集和测试集,但暂时搁置了测试集,因为关于训练性能是否普遍到测试的问题,直到首先获得训练性能才会出现。

此数据集上的简单线性回归的均方误差约为 0.14。

我实现了一个简单的前馈神经网络,代码在 https://github.com/russellw/ml/blob/master/test_nn.py 中复制,在几百个训练时期之后,它的均方误差也为 0.14。

因此,我尝试使用几个不同的优化器将隐藏层的数量从 1 更改为 2 再到 3,调整学习率,将激活函数从 relu 切换到 tanh 再到两者的混合,将 epoch 的数量增加到 5000,将隐藏单元的数量增加到 1000。在这一点上,它应该很容易记住整个数据集的能力。(在这一点上,我不担心过度拟合。我只是想让训练数据的均方误差不是 0.14。没有任何区别。还是0.14。我会说它必须停留在局部最优值,但当你有几百万个权重时,这不应该发生;对于所有参数,几乎不可能同时处于局部最佳状态。而且我在每次运行时都会得到略有不同的数字序列。但它总是收敛到0.14。

现在显而易见的结论是,0.14 对于这个问题来说是最好的,除了即使网络有足够的内存来记住所有数据,它也会保持不变。但关键是我也尝试了一个随机的森林,https://github.com/russellw/ml/blob/master/test_rf.py

。随机森林在原始数据集上的均方误差为 0.01,随着特征的删除而正常降级,在只有一个特征的数据上仍为 0.05。

在机器学习的传说中,没有任何地方说"随机森林远远优于神经网络",所以我可能做错了什么,但我看不出它是什么。也许它就像缺少一个标志或你需要在 PyTorch 中设置的东西一样简单。如果有人能看一看,我将不胜感激。

import numpy as np
import pandas as pd
import torch
import torch.nn as nn
# data
df = pd.read_csv("test.csv")
print(df)
print()
# separate the output column
y_name = df.columns[-1]
y_df = df[y_name]
X_df = df.drop(y_name, axis=1)
# numpy arrays
X_ar = np.array(X_df, dtype=np.float32)
y_ar = np.array(y_df, dtype=np.float32)
# torch tensors
X_tensor = torch.from_numpy(X_ar)
y_tensor = torch.from_numpy(y_ar)
# hyperparameters
in_features = X_ar.shape[1]
hidden_size = 100
out_features = 1
epochs = 500
# model
class Net(nn.Module):
def __init__(self, hidden_size):
super(Net, self).__init__()
self.L0 = nn.Linear(in_features, hidden_size)
self.N0 = nn.ReLU()
self.L1 = nn.Linear(hidden_size, hidden_size)
self.N1 = nn.Tanh()
self.L2 = nn.Linear(hidden_size, hidden_size)
self.N2 = nn.ReLU()
self.L3 = nn.Linear(hidden_size, 1)
def forward(self, x):
x = self.L0(x)
x = self.N0(x)
x = self.L1(x)
x = self.N1(x)
x = self.L2(x)
x = self.N2(x)
x = self.L3(x)
return x

model = Net(hidden_size)
criterion = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.1)
# train
print("training")
for epoch in range(1, epochs + 1):
# forward
output = model(X_tensor)
cost = criterion(output, y_tensor)
# backward
optimizer.zero_grad()
cost.backward()
optimizer.step()
# print progress
if epoch % (epochs // 10) == 0:
print(f"{epoch:6d} {cost.item():10f}")
print()
output = model(X_tensor)
cost = criterion(output, y_tensor)
print("mean squared error:", cost.item())

你能打印你的输入的形状吗? 我会说先检查这些东西:

  • 您的目标 y 具有形状(-1, 1)我不知道在这种情况下,pytorch 是否会抛出错误。 如果不是 2 暗淡,您可以使用y.reshape(-1, 1)
  • 你的学习率很高。 通常,当使用Adam时,默认值就足够好了,或者只是尝试降低学习率。 0.1 是学习率
  • 开始的高值
  • 将optimizer.zero_grad放在 for 循环内的第一行
  • 规范化/标准化您的数据(这通常对 NN 有好处(
  • 删除数据中的异常值(我的观点:我认为这不会对随机森林产生太大影响,但它会对 NN 产生严重影响(
  • 使用交叉验证(也许 Skorch 可以在这里为您提供帮助。这是一个用于 pytorch 的 scikit 学习包装器,如果您了解 keras,则易于使用(

请注意,在某些情况下,随机森林回归器或任何其他回归器的性能可以优于神经网络。在某些领域,神经网络是图像分类或NLP等英雄,但您需要注意,简单的回归算法可以胜过它们。通常是当数据不够大时。

最新更新