keras构造神经网络,非常之方便!以后就它了。本文给出了三个例子,都是普通的神经网络
例一、离散输出,单标签、多分类
例二、图像识别,单标签、多分类。没有用到卷积神经网络(CNN)
例三、时序预测,单标签、多分类。(LSTM)
说明
keras对于神经网络给出的流程图,非常容易理解。
【重点】训练神经网络围绕以下对象:
1. 层,用于合并成网络(或模型)
2. 输入数据和相应的目标
3. 损失函数, 定义了用于学习的反馈信号
4. 优化器, 这决定了学习如何进行
例一
离散输出,单标签、多分类
数据是自己构造的,分有三类,如图
图片来源:
import numpy as np
import pandas as pd
# =====================================================
# 准备数据
N = 100 # number of points per class
D = 2 # dimensionality
K = 3 # number of classes
X = np.zeros((N * K, D)) # data matrix (each row = single example)
y = np.zeros(N * K, dtype='uint8') # class labels
for j in range(K):
ix = list(range(N*j, N*(j + 1)))
r = np.linspace(0.0, 1, N) # radius
t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta
X[ix] = np.c_[r*np.sin(t), r*np.cos(t)]
y[ix] = j # 打标签
# 将y转化为one-hot编码
#y = (np.arange(K) == y[:,None]).astype(int)
y = np.eye(K)[y]
# =====================================================
from keras import models
from keras import layers
# 使用Sequential类定义两层模型
model = models.Sequential()
model.add(layers.Dense(10, activation='relu', input_shape=(2,)))
model.add(layers.Dense(3, activation='softmax'))
# 编译。指定模型的优化器、损失函数、监控指标。
# 对于一个两类分类问题,您将使用二元交叉熵(binary crossentropy)
# 对于一个多类分类问题使用分类交叉熵(categorical crossentropy)
# 对于回归问题使用均方差(meansquared error)
# 对于序列学习问题使用连接主义时间分类(connectionist temporal classification, CTC)
from keras import optimizers
model.compile(optimizer=optimizers.RMSprop(lr=0.001),
loss='categorical_crossentropy',
metrics=['accuracy'])
'''
from keras import optimizers
from keras import losses
from keras import metrics
#from keras import optimizers, losses, metrics
model.compile(optimizer=optimizers.RMSprop(lr=0.001),
loss=losses.binary_crossentropy,
metrics=[metrics.binary_accuracy])
'''
# 训练网络
model.fit(X, y, batch_size=50, epochs=1000)
# =====================================================
# 重新生成数据
X = np.zeros((N * K, D)) # data matrix (each row = single example)
y = np.zeros(N * K, dtype='uint8') # class labels
for j in range(K):
ix = list(range(N*j, N*(j + 1)))
r = np.linspace(0.0, 1, N) # radius
t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta
X[ix] = np.c_[r*np.sin(t), r*np.cos(t)]
y[ix] = j # 打标签
# 将y转化为one-hot编码
#y = (np.arange(K) == y[:,None]).astype(int)
y = np.eye(K)[y]
# =====================================================
#检查模型在测试集上的表现是否良好
test_loss, test_acc = model.evaluate(X, y)
print('test_acc:', test_acc)
标签数据不进行one-hot编码,则损失函数要更改为:loss='sparse_categorical_crossentropy',
效果图
例二
图像识别,没有用到卷积神经网络(CNN)
手写数字的识别,如图
'''
试图解决的问题是对灰度图像进行分类的手写数字(28×28个像素)到他们的10个分类(0到9)。
'''
# 导入数据
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
# 了解数据情况
#test_images.shape # (10000, 28, 28)
#test_labels # array([7, 2, 1, ..., 4, 5, 6], dtype=uint8)
# 将输入数组形状由(60000,28,28)转换为(60000,28 * 28)
train_images = train_images.reshape((60000, 28 * 28))
test_images = test_images.reshape((10000, 28 * 28))
# 将[0,255]区间的整数转换为[0,1]之间的浮点数
train_images = train_images.astype('float32') / 255
test_images = test_images.astype('float32') / 255
# 对分类标签y进行one-hot编码
from keras.utils import to_categorical
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
from keras import models
from keras import layers
network = models.Sequential()
#我们的网络由两个密集层(Dense layers)组成,它们紧密连接(也称为完全连接)神经层。
#第二个(也是最后一个)层是10路softmax层,这意味着它将返回一个包含10个概率分数的数组(总和为1),
#每个分数都将是当前数字图像属于我们的10个分类之一的概率。
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))
#为了使网络为训练做好准备,我们需要再选择三样东西,作为编译步骤的一部分:
#损失函数: 网络如何能够测量它在训练数据上的表现,如何能够引导自己走向正确的方向
#优化器:网络根据所接收的数据及其损失函数进行自我更新的机制
#监控指标:这里,我们在训练和测试期间只关心准确性(正确分类的图像的一部分)
network.compile(optimizer='rmsprop',
loss='categorical_crossentropy',
metrics=['accuracy'])
#训练这个网络
network.fit(train_images, train_labels, epochs=5, batch_size=128)
#检查模型在测试集上的表现是否良好
test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)
效果图
例三
时间序列预测(LSTM)
字母表的一个简单的序列预测问题。
也就是说,根据字母表的字母,预测字母表的下一个字母。
['A', 'B', 'C'] -> D
['B', 'C', 'D'] -> E
['C', 'D', 'E'] -> F
['D', 'E', 'F'] -> G
['E', 'F', 'G'] -> H
['F', 'G', 'H'] -> I
['G', 'H', 'I'] -> J
['H', 'I', 'J'] -> K
['I', 'J', 'K'] -> L
['J', 'K', 'L'] -> M
['K', 'L', 'M'] -> N
['L', 'M', 'N'] -> O
['M', 'N', 'O'] -> P
['N', 'O', 'P'] -> Q
['O', 'P', 'Q'] -> R
['P', 'Q', 'R'] -> S
['Q', 'R', 'S'] -> T
['R', 'S', 'T'] -> U
['S', 'T', 'U'] -> V
['T', 'U', 'V'] -> W
['U', 'V', 'W'] -> X
['V', 'W', 'X'] -> Y
['W', 'X', 'Y'] -> Z
注意数据格式
X.shape: [samples, time_step, features]
y.shape: [samples, one_hot_encodes]
代码:
import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.utils import np_utils
'''
字母表的一个简单的序列预测问题。
'''
np.random.seed(7)
# 原生数据
letters = "ABCDEFGHIJKLMNOPQRSTUVWXYZ"
# 转为数字
data_len = 26
time_steps = 3
X = list(range(data_len))
y = X[time_steps:]
# 将数据转化为[样本数, 时间步数, 特征数]的形式
XX = [X[i:i+time_steps] for i in range(data_len-time_steps)] # [samples, time steps * features]
XXX = np.reshape(XX, (data_len - time_steps, time_steps, -1)) # [samples, time steps, features]
# 归一化
# 数值范围变为0~1,这是LSTM网络使用的s形激活函数(sigmoid)的范围。
X = XXX / data_len
# one-hot编码
#y = np_utils.to_categorical(dataY)
y = np.eye(data_len)[y]
# =================================
model = Sequential()
model.add(LSTM(32, input_shape=(X.shape[1], X.shape[2])))
model.add(Dense(y.shape[1], activation='softmax')) # 输出各类的概率(softmax)
model.compile(loss='categorical_crossentropy', # 单标签,多分类(categorical_crossentropy)
optimizer='adam',
metrics=['accuracy'])
model.fit(X, y, epochs=500, batch_size=1, verbose=2)
#检查模型在测试集上的表现是否良好
test_loss, test_acc = model.evaluate(X, y)
print('test_acc:', test_acc)
效果图