Bi-LSTM с перчаткой - проблема лемматизации

Попытка реализовать двунаправленную модель LSTM с встраиванием перчаток в Python с использованием keras. Архитектура модели следующая:

введите здесь описание изображения

Модель отлично работает при запуске без какой-либо предварительной обработки входных данных. На изображении ниже показан результат работы модели:

введите здесь описание изображения

В рамках предварительной обработки входные данные лемматизируются с помощью Spacy, а затем передаются в модель.

Код предварительной обработки лемматизации:

nlp = spacy.load(“en_core_web_sm-2.1.0”)
doc = nlp(sentence)
lemma_sent = “ “.join([token.lemma_ for token in doc])

Ниже метод подходит модель:

model.fit(data_train,train_label,epoch=5,batch_size=32,verbose=True,validation_data=[data_test,test_label])

Но модель выдает результат, как показано ниже, для каждой эпохи (после лемматизации данных поезда и теста):

введите здесь описание изображения

Пожалуйста, помогите понять, почему модель работает, как указано выше, с лемматизацией. Сводка модели выглядит одинаково как с лемматизацией, так и без нее.


person Anvitha    schedule 16.10.2019    source источник
comment
Пожалуйста, включайте текст как обычный текст в блоки кода, а не изображения. Это намного проще читать и искать. Без какой-либо информации о том, как вы обрабатываете данные с помощью spacy, очень сложно понять, что может происходить.   -  person aab    schedule 16.10.2019
comment
Я не знаю, почему предварительно обработанное обучение не выводится должным образом, но я заметил, что в нем нет информации о проверке. Вы намеренно не предоставляете данные для проверки? Внедряете ли вы какие-либо пользовательские метрики или обратные вызовы. Я рассмотрю ваш звонок на обучение Keras и любые пользовательские показатели или обратные вызовы. Ни один из этих кодов не включен здесь. Если выложишь, может кто увидит, что происходит.   -  person bivouac0    schedule 17.10.2019
comment
@ bivouac0, я обновил вопрос. Пожалуйста помоги.   -  person Anvitha    schedule 21.10.2019
comment
В приведенном выше коде нет ничего явно неправильного. Вам нужно опубликовать извлеченный сегмент кода, который ПОЛНОСТЬЮ РАБОТАЕТ и демонстрирует проблему, если вы хотите, чтобы кто-то помог. Например, у вас есть lemma_sent, но это не отображается в вашей команде подгонки, и нет информации о других данных, которые входят в подгонку. Вам нужно предоставить весь этот код и некоторые примеры данных о том, что находится в этих переменных. Вы также можете предоставить информацию о своей среде (Windows, Linux, ...) и версиях, поскольку это выглядит как некоторая странность с кодом Keras.   -  person bivouac0    schedule 21.10.2019
comment
Вы можете искать другой пост, например stackoverflow.com/questions/41442276/ чтобы узнать, может ли помочь манипулирование параметрами терминала. Не очевидно, как/если это связано с вашей лемматизацией.   -  person bivouac0    schedule 21.10.2019