我正在尝试使用keras使用逻辑回归,这是我在ML中的第一个实验之一。假设我想预测一些非常简单的连续函数的值,只有一个参数,如y = x*10
我试着这样训练模型:
from matplotlib import pyplot as plt
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation
# fix random seed for reproducibility
np.random.seed(7)
# function
curve = np.vectorize(lambda x: x*10)
# data
Xideal = np.arange(1, 15.5, 0.005)
Yideal = curve(Xideal)
X = Xideal[1::5]
Y = curve(X)
# Model
model = Sequential()
model.add(Dense(20, activation='sigmoid', input_dim=1))
model.add(Dense(5, activation='linear'))
model.add(Dense(1))
model.compile(loss='mse', optimizer='rmsprop', metrics=['accuracy'])
# Fit
model.fit(X, Y, nb_epoch=1000, batch_size=32, verbose=0)
# Evaluate
# evaluate the model
scores = model.evaluate(Xideal, Yideal)
print("n%s: %.2f%%" % (model.metrics_names[1], scores[1]*100))
print("n%s: %.2f%%" % (model.metrics_names[0], scores[0]*100))
给出…的结果
2624/2900 [==========================>...] - ETA: 0s
acc: 2.38%
loss: 44.35%
不知道为什么只有2.38%的准确率。我尝试了不同的模型,不同的激活函数,批次大小和时代,但准确率最高只有10%。我想我遗漏了一些基本的东西
对于这个线性数据,一个Dense层就足够了。我想用梯度下降法代替rmsprop。
我已经为你创建了一个ippython笔记本:http://nbviewer.jupyter.org/gist/lhk/6650e4fb85f625199ee5be6d52cbbd0d
请注意:在情节中,我必须手动移动两行彼此分开。这就是为什么有-2。