Авторы: Райан Меркли и Диего Саез-Трампер

Если Интернет - самое важное поле битвы на президентских выборах в США на следующей неделе, то Википедия - нейтральная зона Интернета.

В прошлом месяце федеральные агентства США выпустили общественное объявление с предупреждением о том, что злоумышленники могут использовать Интернет для распространения дезинформации в попытке дискредитировать легитимность процесса голосования.

Как мы знаем из президентских выборов в США 2016 года и других недавних событий, скоординированные субъекты ранее пытались повлиять на результаты выборов, распространяя ложную или вводящую в заблуждение информацию. Но рост числа и изощренность кампаний дезинформации в последние годы делает угрозу дезинформации еще более острой. И хотя дезинформация не нова, в год, потрясенный глобальной пандемией, гражданскими беспорядками, разрушительными событиями, связанными с изменением климата, и нестабильной экономикой, ее последствия усугубляют нестабильность, которую многие уже ощущают.

Википедия, крупнейшая в мире многоязычная онлайн-энциклопедия и один из наиболее посещаемых информационных ресурсов в Интернете, существует для того, чтобы предоставлять людям надежную информацию о темах, моментах и ​​людях, которые формируют наш мир. Таким образом, все части нашего движения работают над борьбой с распространением злонамеренных правок и дезинформации в Википедии во время президентских выборов в США и вокруг них.

«Если Интернет - самое важное поле битвы на президентских выборах в США на следующей неделе, то Википедия - нейтральная зона Интернета».

За последние 20 лет глобальные редакторы-добровольцы Википедии разработали надежные механизмы и редакционные правила, которые сделали сайт одним из самых надежных источников информации в Интернете. Мы осознаем, что мы несовершенны, и, конечно же, не застрахованы от дезинформации или дезинформации; нет веб-сайта, который мог бы претендовать на эту мантию. Но наша некоммерческая модель без рекламы и соблюдение принципов нейтралитета, прозрачности и цитирования надежных источников во многих отношениях выступили противоядием от распространения вредоносной информации на сайте.

Мы хотим защитить этот послужной список и по-прежнему мешать злоумышленникам использовать Википедию в их попытках негативно повлиять на любые выборы или дискредитировать их.

За последние два месяца мы запустили инициативы, дополняющие работу сообщества волонтеров Википедии, и вложили средства в дополнительные исследования и разработку продуктов. Фонд Викимедиа также инвестировал в усиление наращивания потенциала, создав несколько новых должностей, включая должности директора по борьбе с дезинформацией и ученого-исследователя, а также наняв отраслевых экспертов, которые в дальнейшем помогут нам внедрять и выявлять тенденции, связанные с дезинформацией.

Дополнительные меры и гарантии включают:

Внутренняя целевая группа по борьбе с дезинформацией

Фонд создал новую междисциплинарную рабочую группу, в которую вошли представители наших отделов безопасности, продуктов, права, доверия и безопасности, а также коммуникаций. Целевая группа направлена ​​на совершенствование и улучшение нашей способности оценивать атаки и реагировать на них, а также расширять возможности добровольцев Википедии путем установления процессов и четких линий связи между Фондом и сообществом для выявления и пресечения попыток дезинформации.

В рамках этих усилий рабочая группа разработала сценарий, в котором излагаются планы сценариев для конкретных инцидентов, и провела несколько имитационных упражнений для моделирования потенциальных атак. Кроме того, конкретные члены целевой группы регулярно встречаются с представителями крупных технологических компаний и правительственных агентств США, чтобы делиться мнениями и обсуждать способы решения потенциальных проблем дезинформации в связи с выборами.

Инвестиции в исследования и разработки

В рамках нашей постоянной приверженности целостности знаний исследовательская группа Фонда в сотрудничестве с несколькими университетами по всему миру выполнила ряд новых исследовательских проектов, посвященных изучению того, как дезинформация может проявляться на сайте. Выводы, сделанные в ходе исследования, привели к разработке новых сервисов машинного обучения, ориентированных на человека, которые повышают надзор за проектами со стороны сообщества.

Эти алгоритмы помогают редакторам в таких задачах, как обнаружение неподтвержденных заявлений в Википедии и выявление злонамеренных изменений и тенденций в поведении. Некоторые из инструментов, которые используются или скоро станут доступны редакторам, включают:

  • ORES, набор инструментов искусственного интеллекта, которые измеряют и классифицируют контент Википедии. API обнаружения вандализма - одна из его ключевых функций, позволяющая сообществу автоматически оценивать качество редактирования, помогая обнаружить возможный вандализм.
  • Алгоритм, определяющий утверждения без источника или правки, требующие цитирования. Алгоритм выявляет непроверенные утверждения; он помогает редакторам решить, нужно ли цитировать предложение, и, в свою очередь, редакторы-люди улучшают способность алгоритма к глубокому обучению.
  • Алгоритмы, помогающие экспертам сообщества идентифицировать учетные записи, которые могут быть связаны с подозрительными учетными записями sockpuppet.
  • Система машинного обучения для обнаружения несоответствий между Википедией и Викиданными, помогающая редакторам выявлять противоречивый контент в разных проектах Викимедиа.
  • Ежедневный отчет о статьях, которые в последнее время получили большой объем трафика с платформ социальных сетей. Отчет помогает редакторам выявлять тенденции, которые могут привести к всплеску вандализма в Википедии, помогая им выявлять и быстрее реагировать.

Самая сильная защита

Эти инициативы укрепят и укрепят сообщество редакторов-добровольцев Википедии, которые являются лучшими, сильнейшими и часто являются первой линией защиты от дезинформации.

В течение нескольких недель сообщество Википедии усердно готовилось и обсуждали, следует ли расширять защиту страниц, связанных с выборами, и определять порог цитирования.

Следующие рекомендации активно обсуждаются на форуме, где редакторы обсуждают содержание и политику, относящуюся к статье о президентских выборах в США 2020 года. Например, прежде чем объявить кандидата победителем штата, необходимы как минимум три авторитетных источника; победители не могут быть опубликованы в течение как минимум 12 часов после закрытия избирательного участка; и абсолютно никакие оригинальные исследования не могут быть использованы для цитирования.

Большое количество добровольцев, обеспечивающих выполнение этих решений, - это администраторы и функционеры, своего рода специализированные администраторы, обладающие расширенными привилегиями, позволяющими им принимать решения по критически важному контенту. На недавней встрече с целевой группой Фонда, на которой они обсудили дополнительную бдительность, необходимую в связи с такими событиями, как выборы в США, эти добровольцы согласились с тем, что они не заинтересованы в том, чтобы «сообщать новости», а скорее позаботятся о том, чтобы читатели Википедии сейчас и Через 20 лет у вас будет доступ к надежным, хорошо задокументированным и живым отчетам о том, что происходит в мире.

Райан Меркли (@ryanmerkley) - руководитель аппарата Фонда Викимедиа.

Диего Саез-Трампер (@ e__migrante) - старший научный сотрудник Фонда Викимедиа.