Facebook выделяется на фоне Google в борьбе с фейковыми новостями

Facebook запустил механизм обозначения спорных новостей , основанный на проверке фактов от подобных Snopes, PolitiFact или других сайтов, которые принимают ряд принципов работы.

Шаг Facebook совпадает с жесткой критикой, которую выдержал Google из-за низкого качества фрагментов, которые он предоставляет в ответ на определенные поисковые запросы, и которые не подвергаются даже самому элементарному процессу проверки, ссылаясь на источники с нулевым доверием. или сайты с крайне пристрастными взглядами, рассматривая их как источники предположительно надежной информации и рассматривая их как достоверные ответы.

Подход Facebook состоит в том, чтобы сверить элементы с рядом проверенных источников для сравнения фактов и затем присвоить им соответствующие ярлыки. Проблема в том, что процесс проверки идет недостаточно быстро, поэтому к тому времени, когда группы проверки смогли тщательно провести свои проверки, предмет был распространен, а ущерб в значительной степени уже нанесен. Тем не менее, это можно дополнить оценками пользователей, и его можно использовать для определения качества и надежности сайтов в зависимости от того, сколько раз публикуемые ими новости оспариваются (что в конечном итоге станет препятствием для публикации), поскольку а также прогрессивное совершенствование алгоритмов машинного обучения, которые могут научиться маркировать эти элементы не как новости, а на основе их распространения, следуя подходу, аналогичному тому, который используется для выявления моделей мошенничества.

В случае с Google фундаментальная проблема, по-видимому, заключается в том, что он не использует какой-либо тип интеллекта: фрагменты, которые поисковик выделяет в ответ на определенные запросы, похоже, происходят непосредственно из определенного типа рейтинга популярности и, следовательно, имеют тенденцию подчеркивать сенсационность. или спорные сайты. Примеры не оставляют сомнений: поисковая система выделяет теории заговора против таких запросов, как Обама планирует государственный переворот, или придумывает шутки, достойные Монти Пайтона, из-за которых компания выглядит очень плохо, особенно после ее генерального директора Сундара Пичаи. , Неоднократно подчеркивал, что его искусственный интеллект был выше, чем у его конкурентов .

Все это усугубилось с запуском его диалогового помощника Google Home: очевидно, что разговорный помощник, который просто зачитывает первые 10 ответов на SERP (странице результатов поисковой системы), не очень полезен и будет вместо этого ожидается, что он выберет одного из них и ответит, используя его голосовой интерфейс. Но поскольку он систематически выбирает элемент, выделенный в собственном фрагменте Google, а механизму, с помощью которого получается этот фрагмент, не хватает интеллекта, достаточного для того, чтобы различить, исходит ли результат от надежного сайта или предвзятой страницы, Google Home часто придумывает теории заговора или другая подобная ерунда, полностью подрывающая доверие к компании и ее технологиям, особенно если учесть, что пользователи Google Home, как правило, являются первопроходцами, которые знают свое дело.

Если Google, компания с восемнадцатилетним опытом, не может дать результатов, достаточно хороших, чтобы их могла прочитать машина и предоставить в качестве единственного ответа на вопрос, указывает на внутренние трудности, связанные с этим, а также на проблемы с достоверностью, если их не исправить. быстро и эффективно с помощью механизма репутации публикаций, которые могут быть включены во фрагменты, выходящие за рамки ручного мониторинга в каждом конкретном случае, когда они появляются в новостях. Искусственный интеллект зависит от качества данных, которыми мы его скармливаем: если мы скормим Ватсону Городской словарь, он скоро превратится в сленг и нецензурную лексику. Если Google допускает, чтобы его результаты были загрязнены сенсационными или предвзятыми страницами низкого качества, его ответы будут бесполезны.

(En español, вода)