Итак… Илон фактически покупает Твиттер во имя «свободы слова». Алгоритм Твиттера кажется подозреваемым №1 в предполагаемой проблеме цензуры Твиттера.

Решение Илона состоит в том, чтобы сделать алгоритм открытым. Я думаю, что эта идея не очень хорошо продумана и может быть катастрофой. Давайте рассмотрим три причины почему.

1. ИИ = программное обеспечение + данные.

Алгоритмы ИИ — это части программного обеспечения, которые учатся на данных, которыми они питаются. Это означает, что их поведение зависит как от программного обеспечения, так и от данных, и открытие только одного из них не гарантирует надлежащего изучения системы.

Давайте возьмем крайний пример: вы запускаете алгоритм для выявления жестоких политических твитов, и люди думают, что он построен справедливым образом. Тогда данные, которыми вы его кормите, содержат только твиты от правых партий. Результат будет предвзятым.

Чтобы на самом деле обеспечить алгоритмическую систему Twitter (опять же, не «просто» алгоритм), у Илона есть два варианта:

  1. Выпустите обучающие данные Twitter (и конвейер предварительной обработки данных). Мне не нужно объяснять, почему этого нельзя делать (подсказка: конфиденциальность).
  2. Выпуск предварительно обученных моделей. Это было бы абсолютно деструктивно, и причины в пункте №3.

2. Не существует единого «алгоритма Twitter»

У Twitter нет «алгоритма». Он имеет систему алгоритмов.

Всякий раз, когда создается твит, он проходит через ряд алгоритмических контрольных точек. Должен быть классификатор порнографии, классификатор насилия и, в какой-то момент, рекомендательная система.

Что Илон хочет открыть? Все эти системы в какой-то степени взаимозависимы, поэтому, если вы хотите что-то сделать, вы должны открыть все это целиком. И все же, хотим ли мы объяснить миру, как Твиттер блокирует детскую порнографию? Подробнее о том, почему это было бы безумием, в пункте № 3.

3. Неизвестность (часть) безопасности.

Если люди могут понять поведение алгоритмической системы, они также могут использовать его для игры в систему. Это особенно опасно, если выпущена обученная модель.

Предположим, я действительно хочу опубликовать какой-нибудь жестокий контент в Твиттере. С закрытым алгоритмом мне нужно пытаться получить бан, пока не добьюсь успеха. Если Twitter откроет обученный алгоритм, я смогу смоделировать 1 000 000 попыток на своей машине и опубликовать только те, которые система не смогла поймать.

Аргументом в пользу программного обеспечения с открытым исходным кодом является то, что люди, которые обнаруживают ошибки, могут их исправлять, но опять же, ИИ — это не просто программное обеспечение: обнаружение и закрытие дыр не так просто.

Ну и что?

Я инженер, поэтому я изучал теории и методы, которые исследовались и применялись сотни, если не тысячи лет. Социальные сети создали возможность/проблему объединения всего человечества за последние… 15 лет? Все эти проблемы очень новы, и мы пытаемся решить их с помощью инструментов (ИИ), которым… может быть, 10 лет? (цифры могут варьироваться в зависимости от того, что вы считаете «социальными сетями» и «современным ИИ», но вы меня понимаете).

Я не думаю, что человечество уже начало понимать последствия социальных сетей и ИИ. Думать, что мы можем исправить их, опубликовав код на Github, кажется очень наивным. Это сложные проблемы без серебряной пули.

Поэтому, хотя я считаю идею Илона абсурдной, я желаю ему удачи и с трепетом наблюдаю, как на наших глазах разворачивается одна из самых интересных глав технологий. Возможно, это будет неправильным поступком, но наверняка будет чему поучиться.

p.s.: я не люблю писать жалобы, не предлагая решения, но я не думаю, что смогу сделать и то, и другое в одном посте. Я напишу пост о том, как, по моему мнению, следует подходить к этим вопросам. Следуйте за мной, чтобы прочитать это, как только оно выйдет.