Keras深度学习实战——基于Inception v3实现性别分类

发布时间:2023-12-31 09:00

Keras深度学习实战——基于Inception v3实现性别分类

    • 0. 前言
    • 1. Inception 结构
      • 1.1 Inception v1 损失函数
      • 1.2 Inception v2 和 Inception v3
    • 2. 使用预训练的 Inception v3 模型实现性别分类
      • 2.1 模型实现
      • 2.2 错误分类的图片示例
    • 相关链接

0. 前言

我们已经学习了基于 VGG16VGG19 体系结构实现性别分类,除此之外,还有许多其它设计更加巧妙的深度神经网络架构,例如 Inception 在保证模型质量的前提下,极大的减少模型参数个数。在本节中,我们将对 Inception 模型的核心思想进行介绍,然后使用基于预训练的 Inception 体系结构实现性别分类。

1. Inception 结构

为了更好理解 Inception 模型的核心思想,我们首先考虑以下场景:在数据集中,有一些图像中的对象占据了图像的大部分,但在另一些图像中对象可能仅仅占整个图像的一小部分。如果在两种情况下我们都使用相同大小的卷积核,则将使模型难以同时学习到识别图像中较小的对象和图像中较大的对象。
为了解决这个问题,我们可以在同一层中使用的多种不同尺寸的卷积核。在这种情况下,网络本质上是变宽了,而不是变深了,如下所示:

Keras深度学习实战——基于Inception v3实现性别分类_第1张图片
在上图中,我们在给定层中使用多种不同尺寸的卷积核进行卷积,Inception v1 模块具有九个线性堆叠的 Inception 模块,如下所示:

Keras深度学习实战——基于Inception v3实现性别分类_第2张图片

1.1 Inception v1 损失函数

Inception v1 体系架构图中,可以看到该架构既深又宽,这很可能会导致梯度消失。
为了解决梯度消失的问题,Inception v1 有两个辅助分类器,它们源于 Inception 模块,试图将基于 Inception 网络的总损失降到最低,如下所示:

total_loss = real_loss + 0.3 * aux_loss_1 + 0.3 * aux_loss_2

需要注意的是,辅助损失仅在训练期间使用,而在模型测试期间中会被忽略。

1.2 Inception v2 和 Inception v3

Inception v2Inception v3 是对 Inception v1 体系结构的改进,其中在 Inception v2 中,Inception 作者在卷积运算的基础上进行了优化,以更快地处理图像;在 Inception v3 中,Inception 作者在原有卷积核的基础上添加了 7 x 7 的卷积核,并将它们串联在一起。总而言之,Inception 的贡献如下:

  • 使用 Inception 模块捕获图像的多尺度细节
  • 使用 1 x 1 卷积作为瓶颈层
  • 使用平均池化层代替全连接层,降低模型参数量
  • 使用辅助分支来避免梯度消失

2. 使用预训练的 Inception v3 模型实现性别分类

在《迁移学习》中,我们了解了利用迁移学习,只需要少量样本即可训练得到性能较好的模型;并基于迁移学习利用预训练的 VGG16 模型进行了性别分类的实战。在本节中,我们使用预训练的 Inception v3 构建模型识别图像中的人物性别。

2.1 模型实现

首先,加载所需要的库,并加载预训练的 Inception v3 模型:

from keras.applications import InceptionV3
from keras.applications.inception_v3 import preprocess_input
from glob import glob
from skimage import io
import cv2
import numpy as np

model = InceptionV3(include_top=False, weights='imagenet', input_shape=(256, 256, 3))

创建输入和输出数据集:

x = []
y = []
for i in glob('man_woman/a_resized/*.jpg')[:8000]:
    try:
        image = io.imread(i)
        x.append(image)
        y.append(0)
    except:
        continue

for i in glob('man_woman/b_resized/*.jpg')[:8000]:
    try:
        image = io.imread(i)
        x.append(image)
        y.append(1)
    except:
        continue

x_inception_v3 = []
for i in range(len(x)):
    img = x[i]
    img = preprocess_input(img.reshape((1, 256, 256, 3)))
    img_feature = model.predict(img)
    x_inception_v3.append(img_feature)

将输入和输出转换为 numpy 数组,并将数据集拆分为训练和测试集:

x_inception_v3 = np.array(x_inception_v3)
x_inception_v3 = x_inception_v3.reshape(x_inception_v3.shape[0], x_inception_v3.shape[2], x_inception_v3.shape[3], x_inception_v3.shape[4])
y = np.array(y)
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x_inception_v3, y, test_size=0.2)

在预训练模型得到的输出基础上构建微调模型:

from keras.models import Sequential
from keras.layers import Conv2D, MaxPooling2D, Flatten, Dropout, Dense
model_fine_tuning = Sequential()
model_fine_tuning.add(Conv2D(2048, 
                        kernel_size=(3, 3),
                        activation='relu',
                        input_shape=(x_train.shape[1], x_train.shape[2], x_train.shape[3])))
model_fine_tuning.add(MaxPooling2D(pool_size=(2, 2)))
model_fine_tuning.add(Flatten())
model_fine_tuning.add(Dense(1024, activation='relu'))
model_fine_tuning.add(Dropout(0.5))
model_fine_tuning.add(Dense(1, activation='sigmoid'))
model_fine_tuning.summary()

前面的微调模型的简要信息输出,如下所示:

Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
conv2d_94 (Conv2D)           (None, 4, 4, 2048)        37750784  
_________________________________________________________________
max_pooling2d_4 (MaxPooling2 (None, 2, 2, 2048)        0         
_________________________________________________________________
flatten (Flatten)            (None, 8192)              0         
_________________________________________________________________
dense (Dense)                (None, 1024)              8389632   
_________________________________________________________________
dropout (Dropout)            (None, 1024)              0         
_________________________________________________________________
dense_1 (Dense)              (None, 1)                 1025      
=================================================================
Total params: 46,141,441
Trainable params: 46,141,441
Non-trainable params: 0
_________________________________________________________________

最后,编译并拟合模型:

model_fine_tuning.compile(loss='binary_crossentropy',optimizer='adam',metrics=['acc'])

history = model_fine_tuning.fit(x_train, y_train,
                                    batch_size=32,
                                    epochs=20,
                                    verbose=1,
                                    validation_data = (x_test, y_test))

在训练期间,模型在训练数据集和测试数据集上准确率和损失值的变化如下:

Keras深度学习实战——基于Inception v3实现性别分类_第3张图片
可以看到,基于与训练的 Inception V3 实现的性别分类模型准确率可以达到 95% 左右。

2.2 错误分类的图片示例

错误分类的图像示例如下:

x = np.array(x)
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2)

x_test_inception_v3 = []
for i in range(len(x_test)):
    img = x_test[i]
    img = preprocess_input(img.reshape((1, 256, 256, 3)))
    img_feature = model.predict(img)
    x_test_inception_v3.append(img_feature)

x_test_inception_v3 = np.array(x_test_inception_v3)
x_test_inception_v3 = x_test_inception_v3.reshape(x_test_inception_v3.shape[0], x_test_inception_v3.shape[2], x_test_inception_v3.shape[3], x_test_inception_v3.shape[4])
y_pred = model_fine_tuning.predict(x_test_inception_v3)
wrong = np.argsort(np.abs(y_pred.flatten()-y_test))
print(wrong)

y_test_char = np.where(y_test==0,'M','F')
y_pred_char = np.where(y_pred>0.5,'F','M')

plt.subplot(221)
plt.imshow(x_test[wrong[-1]])
plt.title('Actual: '+str(y_test_char[wrong[-1]])+', '+'Predicted: '+str((y_pred_char[wrong[-1]][0])))
plt.subplot(222)
plt.imshow(x_test[wrong[-2]])
plt.title('Actual: '+str(y_test_char[wrong[-2]])+', '+'Predicted: '+str((y_pred_char[wrong[-2]][0])))
plt.subplot(223)
plt.imshow(x_test[wrong[-3]])
plt.title('Actual: '+str(y_test_char[wrong[-3]])+', '+'Predicted: '+str((y_pred_char[wrong[-3]][0])))
plt.subplot(224)
plt.imshow(x_test[wrong[-4]])
plt.title('Actual: '+str(y_test_char[wrong[-4]])+', '+'Predicted: '+str((y_pred_char[wrong[-4]][0])))
plt.show()

Keras深度学习实战——基于Inception v3实现性别分类_第4张图片

相关链接

Keras深度学习实战(7)——卷积神经网络详解与实现
Keras深度学习实战(9)——卷积神经网络的局限性
Keras深度学习实战(10)——迁移学习
Keras深度学习实战——使用卷积神经网络实现性别分类
Keras深度学习实战——基于VGG19模型实现性别分类

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号