Статью этой недели можно найти здесь: Состязательные атаки на медицинские системы глубокого обучения

Расходы на здравоохранение растут до такой степени, что в ближайшем будущем медицинская помощь может стать недоступной для значительной части населения США. Было предложено множество решений, чтобы замедлить или обратить вспять этот рост затрат, в том числе принятие федеральных программ здравоохранения (таких как ACA), которые делают медицинское обслуживание более эффективным, ограничивая посещения врачей только экстренными случаями.

Одним из таких решений является идея внедрения искусственного интеллекта в медицинскую практику. В идеале это сократит время, затрачиваемое на второстепенные или повторяющиеся задачи, предотвратит неэффективность системы здравоохранения, предскажет хронические состояния до того, как они станут необратимыми, и обеспечит более качественную медицинскую помощь пациентам по всем направлениям. На самом деле, я выступал за это решение в авторской статье в прошлом.

Однако исследователи из Массачусетского технологического института и Гарвардской медицинской школы недавно опубликовали работу, предупреждающую нас о том, что система здравоохранения может быть не готова к глубокому обучению. Как и в случае с любой другой программой, медицинские системы глубокого обучения могут быть атакованы теми, кто намеревается украсть личные данные пациентов, и их работа показывает, что медицинские системы могут быть более восприимчивы, чем большинство других, к определенному типу взлома — состязательным атакам.

Сила состязательных атак была замечена во многих областях глубокого обучения, в том числе в тестировании программного обеспечения распознавания изображений на основе глубокого обучения от Google (Спойлер: оно не удалось). Внося небольшие изменения в данные, которые могут не изменить классификацию данных человеком, вы можете обмануть алгоритмы глубокого обучения, заставив их неправильно классифицировать информацию, что приведет к неправильным диагнозам пациентов и потенциальному вреду для пациентов.

Первоначально опубликовано на www.jordanharrod.com.