神经网络混合了实值和分类输入特征



我的问题有三个部分:(1)前馈神经网络可以处理混合的输入特征吗:有些是分类的(离散值:例如,低,中,高),有些是实值的?输入特征变量的总数约为 80 - 90,我希望解决一个(监督)分类问题 (2) 如果第 (1) 部分的答案是肯定的,我已经阅读过有关使用二进制代码(如 Low = 001、Med = 010、High = 100 等)在其他上下文中表示离散值输入特征变量的信息——这也适用于 NN 吗?我担心整个输入特征向量的缩放/规范化(我想是推荐的)--如何缩放/规范化整个混合特征向量还是不需要?(3)有人建议我使用随机森林(RF)。我对RF不是那么熟悉。在给定的上下文中使用RF与NN的优缺点是什么?

就第 2 点而言,如果您将每个分类输入转换为 k 向量(k = # 个类),您只是引入了 k 个新输入,这些输入在 [0, 1] 范围内缩放,因此,如果您的实值输入特征本身在该范围内缩放,那么您几乎没问题。

请注意,如果您使用的是 tanh 激活函数(其输出范围从 -1 到 1),则应相应地转换分类输入特征,因此(假设 k = 3):

0 应变为 <1、-1、-1>

1 应变为 <-1、1、-1>

2 应变为 <-1、-1、1>

希望我清楚这一点。


最新更新