Аннотации метаданных для генетической информации являются важной частью понимания особенностей популяции набора образцов. Независимо от того, являются ли данные образцами крови или геномными прочтениями, чем больше информации мы знаем о предмете, тем больше статистических анализов мы можем провести как исследователи.

Иногда отсутствие метаданных может быть серьезным препятствием. И найти его может быть еще сложнее.

В этой статье авторы сравнивают алгоритм глубокого обучения и модель случайного леса, чтобы иметь возможность аннотировать профили экспрессии малых РНК (сРНК) для различных задач. Эти многоклассовые задачи классификации представляли собой аннотации тканей, возраста и пола.

Они обнаружили, что алгоритм глубокого обучения превзошел алгоритм на основе машинного обучения для всех трех задач, где самая высокая точность составила 96,5% для аннотации на основе тканей.

Далее авторы использовали DeepLIFT для проникновения в черный ящик глубокого обучения. Он использует активации каждого нейрона, начиная с выходного, и выполняет вычисления в обратном направлении, пока не достигнет входного слоя. Таким образом, пользователь может лучше понять, какие признаки, в данном случае, какие части уровней экспрессии были важны для определения аннотации.

Они смогли отобразить, какие мРНК «проголосовали» за каждый класс. Например, они обнаружили, что hsa-miR-142-5p является важным компонентом категории «кровь» для классификации тканей.

Эти типы методов должны, по моему мнению, быть частью большинства анализов глубокого обучения постфактум. Это все равно, что смотреть на наклоны модели линейной регрессии, чтобы лучше понять взаимосвязь между входными и выходными данными.

Будущая работа включает в себя использование иерархической классификации, чтобы получить представление о различных классах тканей. Это поможет им приблизиться к «онтологической» иерархии, которая может объяснить некоторую структуру, стоящую за мРНК.

Если вы хотите, чтобы я написал об определенной статье, пожалуйста, напишите по адресу [email protected]!

Спасибо за чтение.