Почему нам нужно критически относиться к использованию данных в эпоху COVID-19

Чуть больше месяца назад я написал эту статью о нашем страхе смерти и о том, как технологические компании будут манипулировать этим страхом, чтобы убедить нас отказаться от конфиденциальности. Как отмечалось в главе Большие данные и здравоохранение в статье Обрамление больших данных, дискуссии о конфиденциальности применительно к большим данным в сфере здравоохранения значительно ниже, чем в других секторах, таких как бизнес и политика (Paganoni, 2019). В этой главе процитировано мнение профессора из Университета Дюкен: Если вы хотите медицинских инноваций в технологиях, вы должны отказаться от личной жизни, рассматривая конфиденциальность как тривиальную роскошь, которой нужно пожертвовать во имя достижений медицины. . Позже Паганони цитирует этот пост из офиса комиссара по информации. Проблема, обсуждаемая в самом посте, заключалась в том, что передача огромного объема данных из фонда Royal Free London NHS Foundation Trust в Google DeepMind была сочтена нарушением Закона о защите данных. Паганони цитирует следующее:

1. Это не выбор между конфиденциальностью или инновациями

Мы приветствуем положительный результат судебного разбирательства. Фонд сообщил об успешных результатах. Некоторые могут подумать, что права на защиту данных - это небольшая плата за это.

Но что бросилось в глаза при просмотре результатов расследования, так это то, что обнаруженных нами недостатков можно было избежать. Цена нововведений не должна была сводиться к подрыву законодательно закрепленных основных прав на неприкосновенность частной жизни. Я абсолютно уверен, что Траст-фонд сможет выполнить запрошенные нами изменения и при этом продолжить свою ценную работу. Это также будет верно для более широкой системы NHS, поскольку рассматривается возможность внедрения инновационных технологий.

По сути, нам не нужно ставить под угрозу нашу личную конфиденциальность для развития медицины, а отсутствие конфиденциальности является скорее результатом небрежности, чем необходимостью. Добавьте к этому тот факт, что даже данные, которые мы считаем анонимными, можно невероятно легко деанонимизировать, и вы можете подумать, что нам следует быть особенно осторожными с данными, которые мы передаем технологическим компаниям, даже если они работают над технологиями здравоохранения. Однако со вспышкой COVID-19 мы наблюдаем прямо противоположное. Возьмем, к примеру, эту карту, ​​которая оценивает каждое государство по степени его социального дистанцирования. Он оценивает каждое состояние на основе данных о местоположении смартфона и определяет процентное уменьшение движения с момента до вспышки до настоящего времени, и им присваивается буквенная оценка на основе этого процентного снижения. Они, конечно же, настаивают на полной анонимности данных. В освещении этого в Washington Post цитируется исполнительный директор Unacast Томас Валле:

«Здесь все на агрегированном уровне», - сказал Валле. «Мы не можем сказать или раскрыть, находится ли кто-либо дома дома или нет».

Однако в статье также отмечается:

Защитники конфиденциальности опасаются, что такие информационные компании, как Unacast, могут быть изворотливыми, потому что они собирают информацию о местонахождении без реального согласия людей.

Уолл сказал, что все приложения, из которых Unacast получает данные о местоположении, должны сообщать пользователям об этом. Но он отказался назвать какое-либо из приложений. И мы знаем, что немногие люди читают политику конфиденциальности в приложениях - мелким шрифтом, где они раскрывают множество способов использования вашего местоположения, например, продажу его информационным компаниям.

Когда сборщик данных не прозрачен в отношении того, откуда они берут свои данные, например, в этом случае, когда Unacast отказывается называть приложения, используемые для сбора данных, это плохой знак. Добавьте к этому тот факт, что правительство в настоящее время ведет переговоры с технологическими гигантами, такими как Facebook и Google, о том, как использовать собранные данные о местоположении, и вы получите потенциальный рецепт катастрофы. Дело в том, что эти технологические гиганты - частные корпорации. Они не несут ответственности ни перед кем, кроме своих акционеров, и поэтому не имеют прямого интереса в сохранении конфиденциальности пользователей. Если правительство получает данные от них, они могут просто сказать, что в этот момент они получают свои данные не напрямую от частных лиц, а от корпорации. По сути, мы должны доверять этим частным корпорациям, чтобы должным образом обезличить данные по доброте их сердца. И хотя, безусловно, могут быть одна или две компании, которые действительно работают над тем, чтобы их обмен данными был прозрачным и этичным, в целом мы не можем доверять компаниям, которые будут уделять приоритетное внимание общественным интересам, если они не будут к этому принуждены, и, похоже, их пока не принуждают.

Slate недавно опубликовал статью Вам не нужно предоставлять Google свои данные для доступа к тесту на COVID-19, в которой обсуждается, как Google может разрабатывать систему для людей, чтобы получить доступ к результатам их тестов на COVID-19, но чтобы чтобы получить доступ к этим результатам, вы должны предоставить больше данных, чем необходимо. Это похоже на то, как если бы нашим коллективным страхом манипулировали, чтобы предоставить корпорациям данные, которые мы обычно никогда не предоставляли бы им. Фактически, это хорошо сказано в этой цитате:

По мере того, как COVID-19 распространяется в наших сообществах, появляется множество историй о людях, которые используют ситуацию для получения финансовой выгоды. Недобросовестные пандемические спекулянты орды защитного снаряжения и чистящих средств продают по непомерным ценам. Как и в случае с этими товарами, данные, полученные технологическими компаниями после проверки на COVID-19, могут стать следующим активом, который нужно накапливать и использовать.

Подобно тому, как наш страх смерти уже используется в секторе здравоохранения, когда дело доходит до больших данных, нашим еще более нынешним страхом перед COVID-19 манипулируют, чтобы заставить нас смириться с потерей конфиденциальности. Что еще хуже, хотя эта потеря конфиденциальности оформляется как что-то совершенно необходимое, факт заключается в том, что некоторые алгоритмы, использующие эти личные данные, даже не работают и потенциально могут причинить вред. В документе «Экстренные медицинские данные: медицинская информация, полученная с помощью искусственного интеллекта», Emergency Medical Data, или EMD, - это «медицинская информация, полученная с помощью искусственного интеллекта на основе тривиальных цифровых следов». Хотя потенциальные нарушения конфиденциальности рассматриваются как необходимые для общественного блага, Маркс отмечает:

Однако существует мало свидетельств того, что профилирование на основе EMD работает. Хуже того, это может нанести значительный вред, а текущие законы о конфиденциальности и защите данных содержат лазейки, которые позволяют государственным и частным организациям добывать EMD без ведома или согласия людей.

Нашим страхом смерти уже манипулировали, чтобы поставить под угрозу наши права на неприкосновенность частной жизни, и теперь, когда наш страх усиливается, манипуляции только усиливаются. Вот почему нам нужно еще более критически относиться к запросам этих частных компаний и к шагам, которые они делают или не предпринимают для защиты наших прав, потому что ясно, что они не собираются защищать наши права без принуждения к этому.

[1] Паганони, Мария Кристина. Создание больших данных: лингвистический и дискурсивный подход. Springer, 2019.

[2] Маркс, Мейсон, Экстренные медицинские данные: информация о здоровье, полученная с помощью искусственного интеллекта (14 марта 2020 г.). U.C. Irvine Law Review (2021 г., готовится к печати). Размещено в ССРН: https://ssrn.com/abstract=3554118