Взгляд специалиста по данным на технические недостатки законопроекта и на то, почему они могут снизить эффективность столь необходимого законодательства для борьбы с дезинформацией в Интернете.

Ни для кого не секрет, что социальные сети годами наводнены дезинформацией. Тем не менее, кажется, платформы позволили ему работать бесплатно.

Большинство социальных сетей зарабатывают деньги на рекламе на своих платформах. Чем больше времени люди проводят на своих платформах, тем больше денег они зарабатывают. Итак, если люди больше взаимодействуют с постами, содержащими дезинформацию, денежный стимул состоит в том, чтобы показать им больше информации, чтобы они оставались дольше. Само содержание постов, благодаря разделу 230, не является их ответственностью.

Новый законопроект, предложенный в Сенате сенаторами Эми Клобушар (D-MN) и Беном Рэем Луханом (D-NM), отменит защиту, предоставляемую технологическим компаниям в отношении контента, который пользователи размещают на своих платформах. Однако Закон о дезинформации в сфере здравоохранения не делает дезинформацию на этих платформах полностью незаконной. Скорее, это позволит подавать в суд на компании только при определенных обстоятельствах, таких как существующие чрезвычайные ситуации в области общественного здравоохранения, и только в том случае, если платформа определенным образом продвигает их.

К сожалению, текущая буква законопроекта отражает технические недостатки, из-за которых маловероятно, что он окажется эффективным, даже в ограниченном объеме.

Поправки к разделу 230, предложенные в законопроекте, возлагают на компании ответственность в случае дезинформации о здоровье, которая распространяется «через алгоритм», а не с помощью других «нейтральных механизмов», таких как «хронологически», как если бы эти вещи были взаимоисключающими. Они не. Алгоритмы — это просто набор инструкций, чтобы что-то сделать — они запускают все на наших устройствах: от их включения нажатием кнопки до открытия приложений и принятия решения о том, что показывать в новостных лентах социальных сетей.

Таким образом, утверждение о том, что компания будет нести ответственность, если контент будет продвигаться «с помощью алгоритма», а не через «нейтральный механизм», является неправильным. Любая методология, выбранная компанией для определения того, как продвигать контент на своей платформе, будет реализована с помощью алгоритма, даже если она решила отображать контент в хронологическом порядке. Поэтому «алгоритмическое продвижение» контента не является разумным способом возложения ответственности.

В любом случае, показ контента в хронологическом порядке также не является решением для ограничения дезинформации. Даже если платформы вернутся к показу пользователям упорядоченного по времени набора сообщений в своих каналах, это может просто побудить злоумышленников создавать больше сообщений, содержащих дезинформацию (возможно, с использованием ботов), чтобы гарантировать, что их контент всегда будет в верхней части пользовательских каналов. .

Кроме того, дифференциация между «нейтральными» и «ненейтральными» механизмами продвижения контента является спорным вопросом, поскольку алгоритмы являются собственностью компаний, которые их разрабатывают. Таким образом, было бы трудно доказать, что продвижение осуществлялось одним способом, а не другим. Даже если бы это было возможно (скажем, с помощью исследований или принуждения компаний к раскрытию своих алгоритмов — что… удачи вам в этом…), это, скорее всего, произошло бы только после того, как негативные последствия дезинформации уже получили широкое распространение.

Еще одна путаница в законопроекте заключается в том, что в нем говорится, что компании будут нести ответственность за дезинформацию, «созданную или разработанную» через их платформы. Таким образом, неясно, будет ли соответствовать пост, созданный на одной платформе, но который содержит дезинформационный контент, созданный и размещенный в другом месте (то есть: пост, который просто делится битовой ссылкой на указанный контент).

И, наконец, законопроект не дает четкого и действенного определения того, что является (и не является) дезинформацией, которое технологическим компаниям необходимо для обеспечения соблюдения требований.

Технологические компании полагаются на алгоритмы, которые выполняют основную часть работы по выявлению контента, нарушающего их условия обслуживания или содержащего дезинформацию. Справедливости ради, технически это не всегда простые задачи, особенно когда типы медиа различаются (изображения, видео, аудио, текст, ссылки на сторонние сайты), а также когда контент содержит сарказм и иронию или зависит от контекста и языка тела. Если человек держит табличку с надписью «Вакцины помогают предотвратить смерть», делая отрицательный знак руками, человек может определить это как дезинформацию, а алгоритм — нет.

Алгоритмы классификации основаны на помеченных наборах данных, содержащих «хорошие» и «плохие» образцы, чтобы узнать, какие типы функций обычно присутствуют в каждой категории контента, чтобы точно классифицировать новые. Таким образом, наличие четких и точных определений того, что является дезинформацией, а что нет, имеет решающее значение для специалистов по данным, чтобы правильно обучать свои алгоритмы. По мере того как злоумышленники узнают, что является причиной удаления их контента, они меняют стратегии, создавая необходимость в дальнейших корректировках алгоритмов и превращая точность в движущуюся цель. Так что, несмотря ни на что, всегда будут ошибки.

Должно ли это освободить технологические компании от всякой ответственности? Нет. Но это означает, что законодательство должно учитывать технические возможности и ограничения инструментов, которые они призваны регулировать.

Так что, возможно, вместо того, чтобы сосредотачиваться на «нейтралитете» проприетарных алгоритмов, используемых для продвижения контента на платформах, законопроект должен быть более предписывающим в отношении упреждающих шагов, которые должны предпринимать платформы.

Это может потребовать от компаний разглашать информацию о контенте, связанном с общественным здравоохранением, размещенном на их платформах, и предоставлять базовые данные исследовательским учреждениям, чтобы обеспечить надзор (защиту общей конфиденциальности пользователей).

Не вся дезинформация одинакова. Таким образом, разработка метода различения различных степеней дезинформации и их потенциального воздействия, а также определение соразмерных действий, которые должны предпринимать платформы (от удаления до сообщения властям), может оказаться эффективным в снижении дезинформации.

Законопроект может потребовать от платформ продвигать контент доверенных органов здравоохранения с определенной установленной скоростью (т. е. требовать, чтобы для каждого сообщения о COVID из ненадежного источника, которое видит пользователь, он/она также видел X многих сообщений из надежного источника).

Это также может потребовать от платформ помечать или ограничивать обмен сообщениями, которые были опубликованы более порогового количества раз (как в настоящее время делает WhatsApp), или помечать их первоначальный источник, как сигнал о том, что сообщение может потребовать дальнейшего изучения.

Законодательство может потребовать, чтобы платформы удаляли контент, содержащий любую дезинформацию о COVID, из определенного списка, установленного органами общественного здравоохранения (например, микрочипы в вакцинах).

Это может потребовать от платформ приостановить или заблокировать известных злоумышленников или любого, кто публикует X много фрагментов контента, содержащего дезинформацию. Или, по крайней мере, отметьте любой контент, связанный с общественным здравоохранением или содержащий ссылки на известные дезинформационные веб-сайты и хэштеги, и предоставьте ссылки на доверенные органы. Это может распространить такую ​​пометку на любой контент любого пользователя, который касается любого вопроса общественного здравоохранения (например, пометки Instagram на сообщениях, связанных с COVID и вакцинами).

Дезинформацию следует превентивно сдерживать, а когда это не удается, ее охват должен быть ограничен постфактум, потому что ее нельзя «не увидеть». Как только он появляется, он распространяется через распечатки, через другие приложения или из уст в уста. Значит, его нужно остановить ex ante.

Более ограничительное законодательство, чем предложенное выше, потребует проверки всего контента, связанного с чрезвычайной ситуацией в области общественного здравоохранения, перед его запуском в эфир.

Неизбежно будут допущены ошибки. Некоторые пройдут, и могут быть задержки с отловом новых, но текущие уровни, при всем том, что уже известно, непростительны.

Очевидно, у нас проблемы. Доверие компаниям в самостоятельном сдерживании дезинформации не сработало, поэтому кажется правильным, технически грамотное регулирование — единственный путь вперед. Если компании не соблюдают минимальные стандарты, они должны столкнуться с последствиями, такими как штрафы или судебные разбирательства.