Во-первых, мои предположения могут быть ошибочными:
- Потеря - это то, насколько далеко от правильного ответа находится каждый обучающий пример (затем делится на количество примеров - своего рода средняя потеря).
- Точность - это количество правильных обучающих примеров (если за правильный ответ принимается самый высокий результат, то не имеет значения, будет ли это 0,7, что даст потерю 0,3, он все равно выдает правильный ответ). Это дается в процентах.
На мой взгляд, это означает, что точность обычно будет ближе к 100%, чем потеря будет к 0. Это не то, что я вижу:
10000/10000 [==============================] - 1067s - loss: 0.0408 - acc: 0.9577 - val_loss: 0.0029 - val_acc: 0.9995
Epoch 2/5
10000/10000 [==============================] - 991s - loss: 0.0021 - acc: 0.9997 - val_loss: 1.9070e-07 - val_acc: 1.0000
Epoch 3/5
10000/10000 [==============================] - 990s - loss: 0.0011 - acc: 0.4531 - val_loss: 1.1921e-07 - val_acc: 0.2440
Это 3 эпохи, вторая попытка заставить это работать. Это с train_dategen
, имеющим shuffle=True
. У меня есть результаты с shuffle=False
(сначала я думал, что это может быть проблемой), здесь:
10000/10000 [==============================] - 1168s - loss: 0.0079 - acc: 0.9975 - val_loss: 0.0031 - val_acc: 0.9995
Epoch 2/5
10000/10000 [==============================] - 1053s - loss: 0.0032 - acc: 0.9614 - val_loss: 1.1921e-07 - val_acc: 0.2439
Epoch 3/5
10000/10000 [==============================] - 1029s - loss: 1.1921e-07 - acc: 0.2443 - val_loss: 1.1921e-07 - val_acc: 0.2438
Epoch 4/5
10000/10000 [==============================] - 1017s - loss: 1.1921e-07 - acc: 0.2439 - val_loss: 1.1921e-07 - val_acc: 0.2438
Epoch 5/5
10000/10000 [==============================] - 1041s - loss: 1.1921e-07 - acc: 0.2445 - val_loss: 1.1921e-07 - val_acc: 0.2435
Я использую categorical_crossentropy
для проигрыша, так как у меня 3 класса. У меня больше данных, чем нужно (около 178 000 изображений, все классифицированы по 1 из 3 классов).
Я что-то не понимаю, или что-то пошло не так?
Вот мой полный код:
# Importing the Keras libraries and packages
from keras.models import Sequential
from keras.layers import Conv2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
# Initialising the CNN
classifier = Sequential()
# Step 1 - Convolution
classifier.add(Conv2D(32, (3, 3), input_shape = (200, 200, 3), activation = 'relu'))
# Step 2 - Pooling
classifier.add(MaxPooling2D(pool_size = (2, 2)))
# Adding a second convolutional layer
classifier.add(Conv2D(32, (3, 3), activation = 'relu'))
classifier.add(MaxPooling2D(pool_size = (2, 2)))
# Step 3 - Flattening
classifier.add(Flatten())
# Step 4 - Full connection
classifier.add(Dense(units = 128, activation = 'relu'))
classifier.add(Dense(units = 3, activation = 'sigmoid'))
# Compiling the CNN
classifier.compile(optimizer = 'adam', loss = 'categorical_crossentropy', metrics = ['accuracy'])
# Part 2 - Fitting the CNN to the images
from keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale = 1./255)
test_datagen = ImageDataGenerator(rescale = 1./255)
training_set = train_datagen.flow_from_directory('dataset/training_set',
target_size = (200, 200),
batch_size = 64,
class_mode = 'categorical',
shuffle=True)
test_set = test_datagen.flow_from_directory('dataset/test_set',
target_size = (200, 200),
batch_size = 62,
class_mode = 'categorical',
shuffle=True)
classifier.fit_generator(training_set,
steps_per_epoch = 10000,
epochs = 5,
validation_data = test_set,
validation_steps=1000)
classifier.save("CSGOHeads.h5")
# Part 3 - Making new predictions
import numpy as np
from keras.preprocessing import image
test_image = image.load_img('dataset/single_prediction/1.bmp', target_size = (200, 200))
test_image = image.img_to_array(test_image)
test_image = np.expand_dims(test_image, axis = 0)
result = classifier.predict(test_image)
training_set.class_indices
if result[0][0] == 1:
prediction = 'head'
else:
prediction = 'not'