Я никогда не чувствовал необходимости блокировать контент во время просмотра YouTube, и я никогда не загружал видео и не рисковал быть заблокированным. Когда ограниченный режим недавно привлек много внимания из-за того, что стал мошенником и дискриминационным таргетингом на создателей, особенно из сообщества ЛГБТ +, я решил оставить свои мысли при себе и позволить тем, кто более актуален и более осведомлен о проблеме. быть теми, кто говорит. Все, что я хотел сказать, было сказано, и мне нечего было добавить. Тем не менее, у меня была возможность посмотреть «Подкаст Дженны Марблс и Жюльена Соломиты» (содержит нецензурную лексику), в котором обсуждалось поведение программного обеспечения, и эта пара предоставила возможность внести что-то потенциально новое и ценное.

В В своем подкасте Дженна и Жюльен обсуждают несколько теорий относительно существования программного обеспечения, но что действительно бросается в глаза, так это заявление пары о том, что «ничего из этого не является случайностью». Я не могу объяснить, насколько подавляющее мое уважение и восхищение Дженной и Жюльеном заключается в том, что они не только делают то, что любят, но и без колебаний высказываются, когда им угрожает то, что стало их и чужими средствами к существованию. Я попытаюсь отложить это, а также свои чувства по поводу YouTube и того, как они работают, чтобы объяснить, что в любом контексте вы никогда не должны так быстро отбрасывать возможность программного сбоя, особенно когда программное обеспечение играет такую ​​же большую роль в ситуации, как и здесь. Сбои в программном обеспечении случаются, и чем больше кодовая база, тем больше вероятность, что они произойдут.

Я не пытаюсь сказать, что YouTube не виноват, когда они допустили абсолютно серьезные ошибки

В нескольких местах их подкаста были сделаны комментарии, которые убедили меня в том, что информация Дженны и Жюльена о программном обеспечении устарела, особенно комментарий Дженны о том, что «...кто-то физически вошел туда и написал, что кода, и мы просто скрестили пальцы, чтобы никто не делал из этого большого ... дела »(ругательство удалено). Это не обязательно так. Компании, особенно те, которым приходится обрабатывать такие объемы входящих данных, как YouTube, все больше зависят от машинного обучения, помогающего эффективно справляться с такой огромной рабочей нагрузкой. По словам Артура Сэмюэля, который ввел этот термин в 1959 году, машинное обучение дает «компьютерам возможность учиться без явного программирования». Таким образом, хотя это правда, что человек должен писать базовый код, совсем не странно думать, что компьютер расширил список того, на кого и на что ориентироваться, полностью самостоятельно.

Если это звучит как рецепт катастрофы, это потому, что это может быть. Недавний известный пример: создатель YouTube, PewDiePie, «загрузил видео», пробуя Skype-бота Microsoft «Project Murphy». В своем видео PewDiePie спрашивает Мерфи: «Что, если бы Харамбе был еще жив?» и «Что, если Харамбе был Иисусом?» Вместо того, чтобы возвращать изображения с лицом 17-летней гориллы, застреленной в зоопарке Цинциннати в начале года, на изображениях было отредактировано лицо актрисы Лесли Джонс. Ответы Мерфи были «процитированы основными СМИ» как пример расизма в популярных статьях о создателе.

Если не PewDiePie был ответственным расистом, то кто? Майкрософт? На самом деле, это была комбинация интернет-троллей и всех новостных агентств, сообщающих о домогательствах. Алгоритмы Project Murphy используют поиск изображений Bing для поиска изображений, связанных с ключевыми словами, в отправляемых сообщениях. С середины июля до всего за пять дней до загрузки видео PewDiePie (которое я смог найти) пользователи сети, сравнивающие Лесли Джонса с гориллой, были горячей темой в Интернете. Механизмы поиска изображений полагаются не только на метаданные изображения, но и на данные со страницы, на которой находится изображение, чтобы помочь ранжировать изображения в поиске. Когда изображения лица Лесли Джонс начали появляться вместе с изображениями и упоминаниями о Харамбе по всему Интернету, программное обеспечение поисковой системы установило связь между ними. Все это произошло всего через несколько месяцев после «полемики» вокруг твиттер-бота Microsoft, Тэя.

Машинное обучение навлекло на Uber неприятности, «девочка-подросток» была представлена ​​отцу как беременная любезность. рекомендательных алгоритмов Target, даже IBM Watson стал жертвой «собственных ограничений». Компьютеры не способны делать что-то большее, чем им говорят, поэтому, если вы не совсем правильно формулируете свои вопросы или вводите в свои алгоритмы несовершенные данные, вы рискуете непредсказуемым поведением; когда вы не указываете программному обеспечению учитывать социальный контекст (что отнюдь не является простой задачей), оно и не будет этого делать.

Хотя оно сопряжено с неотъемлемыми рисками, оно также может быть бесценным ресурс. Искусственный интеллект и машинное обучение могут помочь диагностировать рак «кожи» и «молочной железы». Он может выявлять признаки редких генетических нарушений «на человеческом лице», которые трудно увидеть невооруженным глазом, или строить трехмерную модель лица «просто из источника ДНК».

Реагирование к проблеме, основанной на предположении, что имел место какой-либо, особенно злонамеренный, умысел со стороны ответственных лиц, несправедливый по отношению к тем из нас, кто за кулисами. Как бы мы ни старались, обучение компьютеров — особенно обучение компьютеров самообучению — не так просто, как может показаться. Это не значит, что какое-либо заданное поведение не могло быть введено намеренно; однако такие случаи настолько редки, что это не самое безопасное предположение. Когда гнев неправильно направляется таким образом, он может подорвать прогресс в определении того, где могла возникнуть проблема и что должно произойти, чтобы все исправить.

Заговор с ограниченным режимом: краткое введение в сбой программного обеспечения