在这个例子中,我们创建了一个由多个层组成的多层神经网络,以提取训练数据中的基础模式。 这个多层神经网络将像一个回归器一样工作。 我们将根据下面等式生成一些数据点: y = 2x2 + 8
。
如下所示导入必要的软件包 -
import numpy as np
import matplotlib.pyplot as plt
import neurolab as nl
根据上述公式生成一些数据点 -
min_val = -30
max_val = 30
num_points = 160
x = np.linspace(min_val, max_val, num_points)
y = 2 * np.square(x) + 8
y /= np.linalg.norm(y)
现在,重塑这个数据集如下 -
data = x.reshape(num_points, 1)
labels = y.reshape(num_points, 1)
使用以下命令可视化并绘制输入数据集 -
plt.figure()
plt.scatter(data, labels)
plt.xlabel('Dimension 1')
plt.ylabel('Dimension 2')
plt.title('Data-points')
现在,构建神经网络,其具有两个隐藏层,第一隐藏层中具有十个神经元的神经元,第二隐藏层中六个,输出层中一个神经元。
neural_net = nl.net.newff([[min_val, max_val]], [10, 6, 1])
现在使用梯度训练算法 -
neural_net.trainf = nl.train.train_gd
现在训练网络的目标是学习上面生成的数据 -
error = neural_net.train(data, labels, epochs = 1000, show = 100, goal = 0.01)
训练数据点上运行神经网络 -
output = neural_net.sim(data)
y_pred = output.reshape(num_points)
现在绘图并可视化任务 -
plt.figure()
plt.plot(error)
plt.xlabel('Number of epochs')
plt.ylabel('Error')
plt.title('Training error progress')
现在将绘制实际与预测输出关系图 -
x_dense = np.linspace(min_val, max_val, num_points * 2)
y_dense_pred = neural_net.sim(x_dense.reshape(x_dense.size,1)).reshape(x_dense.size)
plt.figure()
plt.plot(x_dense, y_dense_pred, '-', x, y, '.', x, y_pred, 'p')
plt.title('Actual vs predicted')
plt.show()
执行上述代码,您可以观察如下所示的图形 -