С появлением новых инструментов и технологий возникает соблазн думать, что правила работы изменились или что старые проблемы можно забыть. Часто это так, но, используя новые технологии, мы видим новые проявления древних проблем.

«Из-за отсутствия гвоздя туфля пропала,

Конь пропал из-за отсутствия подковы,

Всадник пропал из-за нехватки коня,

Из-за отсутствия всадника битва проиграна,

Из-за отсутствия битвы королевство было потеряно,

И все из-за отсутствия гвоздя для подковы.

- Бенджамин Франклин (Бедный Ричардс Альманак)

В приведенном выше стихотворении используется датированная ссылка, поскольку современные военные не часто полагаются на подковообразные гвозди. Однако дух этого стихотворения остается верным.

Маленькие проблемы часто имеют большие последствия.

Мы видим это во многих приложениях ИИ. Степень, в которой это применимо, определяет, какие приложения ИИ могут получить широкое распространение, а какие остаются экспериментальными.

Особые случаи

AI обладает широкими возможностями с разным уровнем принятия. Каждое приложение ИИ неизбежно сталкивается со сценариями, в которых системы не работают так, как требуется или как ожидалось. Мы называем эти сценарии «крайними случаями», как показано ниже.

Друг или еда?

Глубокое обучение и сверточные нейронные сети - это два метода искусственного интеллекта, широко используемые для классификации изображений.

Люди могут посмотреть на картинку и определить, что на ней изображено. Машины работают неплохо - на самом деле алгоритм Google «Покажи и расскажи» может подписать изображение с точностью более 93%!

Ошибки классификации изображений часто забавны. Ниже у нас есть несколько изображений, которые были классифицированы как ленивцы, но если вы присмотритесь, вы заметите, что некоторые из них - это выпечка.

И здесь нам трудно отличить чихуахуа от черничных маффинов.

Если вы все еще не голодны, посмотрите на этих симпатичных собачек и жареную курицу.

Эти неудачи безобидны и даже несколько забавны. Даже при высокой частоте отказов, когда 1 из 10 изображений не классифицируется должным образом, эти алгоритмы остаются полезными, а их отказы не причиняют реального ущерба.

Самостоятельная тонна скоростного металла

Доказано, что у беспилотных транспортных средств очень низкий процент отказов. В среднем люди попадают в автокатастрофы 4,2 раза на миллион миль пробега. Автомобили Waymo - автомобили с автоматическим управлением, разработанные Google - были вовлечены в чуть более 30 мелких аварий (большинство из которых в результате крайних отказов), проехав около 5 миллионов миль. Мы можем сделать вывод, что автономные транспортные средства примерно так же безопасны, как и люди-водители.

Почему же тогда у нас нет повсеместного использования автономных транспортных средств? Экономические аргументы сильны, но безопасность остается проблемой.

Мы относим роботизированные системы, управляемые ИИ, к другому стандарту, потому что эти крайние случаи проявляют проблемы в физическом мире, где может быть нанесен реальный ущерб.

Автономные транспортные средства и почти вся робототехника работают как компоненты в более сложных системах. Автономный грузовой автомобиль-мошенник не только уничтожает полезную нагрузку; он потенциально может проехать через оживленный перекресток, не обращая внимания на пешеходные переходы и другой транспортный поток.

Эти примеры «жизни и смерти» служат иллюстрацией того, как крайние случаи могут ограничить или даже поставить под угрозу потенциал технологий искусственного интеллекта.

Системы систем

Термин «разработка надежности» проливает свет на значение крайних случаев в любой сложной системе. При проектировании надежности основное внимание уделяется стоимости сбоев, вызванных простоем системы, успешным выполнением миссии или ее неудачей.

Одним из примеров успеха миссии являются устройства, которые работают независимо, а не как подкомпоненты в более сложной системе. Примеры включают создание результатов поиска и классификацию изображений.

Сложные системы имеют более сложные миссии с большим количеством взаимодействующих компонентов. Определение надежности сложных систем требует суммирования всех показателей отказов подсистем, задействованных в миссии. Благодаря этому мы можем вычислить среднее время наработки на отказ (MTBF) - то есть «время безотказной работы» между двумя отказами системы во время работы.

Представьте себе 50 идентичных складских роботов (с частотой отказов 3%), каждый из которых выполняет 40 миссий в сутки. Среднее время безотказной работы отдельного робота составляет 20 часов. Эти складские роботы более надежны, чем наш алгоритм классификации изображений (с коэффициентом сбоев в 7% случаев), и могут считаться «достаточно хорошими».

Однако, когда эти 50 устройств работают вместе как часть более крупной складской системы, мы определяем, что средняя наработка на отказ складской системы составляет всего 24 минуты! Это связано с тем, что в течение 20 часов каждое устройство может выйти из строя один раз.

Кроме того, эти роботы, управляемые ИИ, скорее всего, будут работать вместе, взаимозависимо. Мы не можем игнорировать эффекты взаимозависимого каскадного сбоя, при котором единичный сбой с большой вероятностью приведет к сбою и взаимозависимых процессов, как в случае с нашей поэмой о подкове гвоздя.

Казалось бы, небольшое количество таких краевых отказов может быстро привести к значительным отрицательным результатам. Частота отказов, измеряемая однозначным числом, может привести к затратам на обслуживание и вмешательство, которые перевешивают любую выгоду от внедрения технологий искусственного интеллекта.

Еще один инструмент?

Исторически сложилось так, что орудия труда улучшают человеческий труд. Топор без кого-то качать не пригодится. Автоматизированная сборочная линия дает гораздо больше рычагов воздействия, чем топор, но все же неизменно будет содержать процессы, требующие человеческого труда.

Почему ИИ следует рассматривать как исключение?

Человек может классифицировать тысячи изображений в день без посторонней помощи. С помощью инструментов классификации AI один и тот же человек может сосредоточиться на решении крайних случаев, эффективно классифицируя сотни тысяч изображений в день.

Без участия человека, который занимается крайними случаями, любая система искусственного интеллекта может быть экономически невыгодной и даже опасной.

Почему бы не принять инструменты ИИ такими, какие они есть? Не как универсальное решение для решения любых утомительных когнитивных задач, а как еще один инструмент в нашем наборе инструментов для улучшения человеческих усилий.

Это то, что происходит в большинстве случаев, например, с самолетами, когда автопилоты выполняют большую часть работы, связанной с полетом, но пилоты остаются на борту.

Краудсорсинговая платформа Amazon Mechanical Turk создает рынок, на котором публикуются «задачи человеческого интеллекта», чтобы люди могли получать деньги за выполнение задач, которые компьютеры в настоящее время не могут выполнять. В задачи входит проверка данных, маркировка объектов в видео и расшифровка подкастов.

Инновационные стартапы, такие как Phantom Auto, Ottopia и Cognicept Systems, разрабатывают системы, позволяющие автономным системам, таким как беспилотные автомобили, запрашивать помощь человека в крайних случаях.

Многие мрачные предсказания замены людей машинным интеллектом и машинным трудом могут быть преждевременными.

Экономист Джон Мейнард Кейнс ввел термин «технологическая безработица» в 1930 году, заявив, что «безработица, вызванная нашим открытием способов экономии использования рабочей силы, будет происходить быстрее, чем мы сможем найти новые применения для работы» (Keynes, Экономические возможности для наших внуков, 1930).

Нет сомнений в том, что характер жизни и работы радикально изменился в результате технического прогресса, но люди всегда находят новые способы быть продуктивными.

Неужели на этот раз все по-другому? Пограничные случаи вполне могут снова спасти человечество от безработицы.