Искусственный интеллект - это общий термин, используемый для описания быстро развивающейся высококонкурентной технологической области. Его часто используют ошибочно, и он стал определять так много разных подходов, что даже некоторые эксперты не в состоянии точно определить, что такое искусственный интеллект. Из-за этого в быстрорастущей области ИИ сложно ориентироваться и еще сложнее правильно регулировать.

Смысл регулирования должен заключаться в защите людей от физического, психического, экологического, социального или финансового вреда, причиненного действиями или халатностью других. (Некоторые могут добавить такие требования, как «справедливость» или «прозрачность», или распространить защиту на животных, растения, учреждения, исторические достопримечательности и т. Д. В этой статье давайте остановимся на общем пункте, описанном выше). Регулирование не гарантирует, что несчастных случаев не произойдет. Но если что-то пойдет не так, нужно исправить. Это требует как объяснимости (чтобы знать, почему произошла ошибка), так и детерминизма (чтобы гарантировать, что исправление работает каждый раз) в решении.

Представьте, если бы кто-то спросил: «Когда мы должны начать вводить правила в отношении компьютерного программного обеспечения?» Это не очень точный вопрос. Что за софт? Видеоигры? Разложить листы? Вредоносное ПО? Точно так же искусственный интеллект можно реализовать разными способами. Важно различать типы и варианты использования. Ниже кратко описаны некоторые основные типы.

1. Автоматизация. Многие из того, что сегодня называют «ИИ», - это просто то, что десять лет назад называлось «автоматизацией». Кто-то замечает закономерность в своей повседневной работе с некоторыми переменными и пишет программу, чтобы повторить эту работу для них. Программа не учит. «Интеллект» обеспечивается разработчиком при кодировании. Иногда некоторые шаблоны меняются или появляются новые переменные, требующие от разработчика обновления кода. Если вы когда-либо создавали «макрос» (или умно использовали красный камень в Minecraft), значит, вы автоматизировали свою работу.

2. Моделирование. Этот этап более сложный, чем простая автоматизация. Для моделирования требуется, чтобы разработчик понимал проблему в достаточной степени, чтобы рассмотреть крайние случаи, переменные и закономерности, которые еще не были обнаружены. Чем лучше модель, тем больше возможностей покрыть пространство, не выходя за борт для обработки случаев, которые никогда не встретятся. Модели тоже не обучаются. Опять же, «интеллект» предоставляется разработчиком. Модели статичны и требуют ручной работы для улучшения с течением времени. Они лучше всего работают в детерминированных, четко определенных проблемных областях, где информация полностью известна, например, в шахматах. Все правила четко поняты. Фигуры перемещаются точно определенным образом. Все видят полный пансион - ничего не скрывается. Переменная - это выбор оппонента, но он ограничен конечным набором возможностей. Методы грубой силы, которые проверяют все возможности перед выбором, или алгоритмы поиска (например, A *, произносится как «звезда»), которые сокращают количество возможностей для проверки, находят оптимальный игровой процесс. Люди также применяли модели к недетерминированным (то есть стохастическим) задачам, которые также не предоставляют всей информации. Это то, что делает служба погоды, когда сообщает вам, что вероятность дождя завтра составляет 80%. У них нет возможности узнать, где находится каждая молекула или ее скорость, но есть несколько «погодных моделей», которые дают разумное представление о возможностях. Обратите внимание, что результаты возвращаются в виде вероятностей, а не абсолютных величин, как в шахматах. Точно так же кванты («количественные аналитики») создают модели для прогнозирования фондового рынка.

3. Машинное обучение. Предоставление программному обеспечению возможности изменять свои внутренние модели начинает отстранять человека от некоторых частей решения. По сути, данные составляют большую часть программирования системы. Однако люди по-прежнему создают модели машинного обучения, выбирают данные, которые, по их мнению, являются релевантными для использования в обучении, повторяют и интерпретируют результаты до тех пор, пока ответы не будут соответствовать мнению разработчика о том, как должен выглядеть хороший ответ. Все это вносит человеческий фактор в решение. Примеры методов машинного обучения включают «глубокое обучение», «сверточные нейронные сети», «опорные векторные машины» и «случайные леса». Эти решения касаются проблемных областей, которые являются стохастическими по своей природе и / или имеют отсутствующую или скрытую информацию. Азартные игры, варианты использования, такие как прогнозы фондового рынка, актуарные науки или сложные «большие данные», - все это хорошие кандидаты для методов машинного обучения.

4. Общий искусственный интеллект (AGI) - это Святой Грааль всего. Создание машин, которые учатся и думают в целом и могут адаптироваться к изменениям окружающей среды самостоятельно, без участия человека, - это финал вычислений, если выбрать только одну область. Может показаться, что существует большой разрыв от 3 до 4, но на самом деле все остальные решения являются лишь вариациями того, что уже существует.

Давайте посмотрим, что регулирование будет означать для каждого типа. Имейте в виду, что регулирование требует, чтобы люди анализировали и понимали, что происходит между входами и выходами системы, в достаточной степени, чтобы гарантировать, что решение не причинит вреда. Регулирование построено на доверии. Мы уверены, что регулирующие органы понимают и компетентны в выполнении своей работы. Мы не можем автоматизировать регулирование, иначе мы застрянем в бесконечном цикле регулирования программного обеспечения, которое регулирует программное обеспечение, которое регулирует программное обеспечение… понимаете? Регулирование требует людей, доверия и компетентности.

В настоящее время существуют правила для первых двух типов ИИ. Третий и четвертый типы усложняются.

Регулирующая автоматизация. Эти программы полагаются исключительно на работу людей. Эти типы программ уже регулируются в отраслях и критически важных приложениях. Например, программное обеспечение автопилота на самолете должно пройти строгие сертификаты, как и многие медицинские устройства. Регулирование может включать аудит программного обеспечения для выявления вредоносных программ, ошибок или недостатков. По сути, это объединяет обязанности одного человека (разработчика) с другим (независимым аудитором). Предполагается, что проверка второго лица позволит выявить любые нарушения или проблемы. (Это банальное представление о том, что происходит на самом деле. В идеале, существует несколько групп тестирования на разных этапах разработки и развертывания). Регулирование здесь работает, потому что люди могут понять эти системы.

Регулирующее моделирование. Эти программы также полагаются исключительно на работу людей. Следовательно, они хорошо поддаются регулированию. Моделирование - это этап более сложный, чем автоматизация, поэтому все становится сложнее. Но это все еще в сфере надежных людей, компетентно выполняющих свои регулирующие обязанности. Например, финансовые модели, используемые банками, очень строго регулируются, чтобы гарантировать их беспристрастную работу. Разработчики моделей должны доказать регулирующим органам, что их модели не дискриминируют, скажем, положения о ссуде по этническому признаку.

Регулирование машинного обучения. Поскольку эти методы применяются специально для решения проблем, которые слишком сложны для понимания простых смертных, их регулирование требует чего-то отличного от двух предыдущих типов. Независимо от того, насколько надежны и компетентны регулирующие органы, они не смогут полностью понять внутреннее устройство большинства этих решений для машинного обучения. По крайней мере, для каких-либо интересных реальных задач. Определенно не для каких-либо недетерминированных решений. Даже если рассматривать конкретный метод как понятную модель, игнорируется поведение этой модели под нагрузкой из непроверенных данных. Возможно, регулирование означает, что все данные обучения должны быть проверены и подтверждены до обработки алгоритмом? Это вообще сводит на нет смысл машинного обучения. Пример того, где требуется регулирование для этого типа ИИ, - это автономные транспортные средства. Предложение о результатах, основанных на доказательствах, для определения безопасности упоминается в статье AP News в январе 2020 года о нескольких авариях Tesla, где, как сказал исполнительный директор Центра автобезопасности в Вашингтоне,

«В какой-то момент возникает вопрос: сколько доказательств необходимо, чтобы определить, что способ использования этой технологии небезопасен? В данном случае, надеюсь, эти трагедии не будут напрасными и приведут к чему-то большему, чем расследование НАБДД ».

В статье говорится:

«Левин и другие обратились к агентству с просьбой потребовать от Tesla ограничить использование автопилота в основном на четырехполосных автомагистралях без перекрестного движения. Они также хотят, чтобы Tesla установила лучшую систему для отслеживания драйверов, чтобы убедиться, что они все время обращают внимание. Система Tesla требует, чтобы водители держали руки на руле. Но федеральные следователи обнаружили, что эта система позволяет водителям слишком долго отключаться ».

3 аварии, 3 смерти вызывают вопросы об автопилоте Tesla

Это подходящая мера для регулирования систем стохастического машинного обучения. Речь идет не столько об известных ограничениях программного обеспечения, сколько о том, как его следует и не использовать.

Существуют альтернативные детерминированные и объяснимые алгоритмы машинного обучения. Они лучше поддаются регулированию. Если нормативные законы требуются в отношении программного обеспечения для конкретных случаев использования, тогда решения должны быть реализованы с использованием этих полностью объяснимых технологий. Они абсолютно необходимы для критически важных приложений, которые пытаются заменить ИИ первого типа в отраслях, которые уже строго регулируются.

Регулирование общего искусственного интеллекта - чтобы была возможность регулировать решения AGI, компоненты этого решения должны быть полностью детерминированными и объяснимыми. По сравнению с другими, этот может показаться наиболее сложным с точки зрения нормативных требований. Но подумайте о цели: в конечном итоге предполагается, что эти системы работают как человеческий разум. В этот момент правила вернутся к обычным законам, за соблюдение которых мы возлагаем ответственность. Но момента выключения света не будет. Прежде чем достичь полного интеллекта человеческого уровня, эти системы сначала разовьются за счет гораздо более скромных способностей. Они могут развиваться через улитку, мышь, белку, собаку и обезьяну. Если разрешено применять свои решения, необходимо, чтобы в алгоритм вошла некоторая случайность. Это просто связано с наукой о принятии решений, а не с особенностями AI / AGI. Детерминированные и стохастические пути могут быть разделены, поэтому регулируются независимо.

Правила для систем ИИ уже существуют. Эта тенденция сохранится. К сожалению, наше общество скорее реагирует, чем активно. Вероятно, что правила будут реализованы только после того, как произойдут опасные события. Когда случаются эти трагедии, мы не должны спешить обвинять только технологию или разработчика. Пользователи, злоупотребляющие технологиями, и законодатели, которые не получают знаний о технологиях, также должны нести вину.

Водитель, который не следует инструкциям автопилота Tesla по бодрствованию, удерживанию рук на рулевом колесе или управлению им только на автомагистралях, использует систему не по своему замыслу. В случае аварии ответственность за это должен нести водитель. Недостаточно заявить о незнании ограничений и обвинить инженеров. Маркетологи Tesla также не уклоняются от ответственности за то, что назвали систему «Автопилот», что дало потребителям преувеличенное ощущение функциональности. Именно в рамках этих очень человеческих обманов, сделанных ими самими или в качестве активных участников, законодатели могут устанавливать контроль. Однако они должны быть готовы усердно работать над пониманием технологии, чтобы они могли очертить, где заканчиваются ограничения технологии и начинаются человеческие ограничения.