Сегодня наш мир экспоненциально движется к ИИ, поскольку мы окружены его приложениями, например, в таких областях, как образование, здравоохранение, инженерия, средства массовой информации и электронная коммерция, право, сектор услуг/государственный сектор, транспорт и т. д., потому что это делает нашу жизнь легкая и комфортная.

Представьте себе мир, в котором мобильная сущность (т. е. автомобили с автоматическим управлением, беспилотные летательные аппараты (БПЛА) и т. д., или любые программно-аппаратные инфраструктуры (облачные вычисления, Интернет вещей, робототехника) или безопасность/обнаружение аномалий (т. е. , Безопасность данных/Интернета, Блокчейн-приложения), Математические вычисления (например, квантовые вычисления), Обработка естественного языка, взаимодействие человека с компьютером (HCI) и т. д., объясняющие нам восприятие машин?
Мы знаем, что люди получают знания, применяя методы проб и ошибок для решения проблемы, чтобы найти решение в течение периода времени для достижения эффективного решения. Этот подход одинаков и для обучающихся машин. На приведенном ниже рисунке можно четко объяснить работу ИИ.

На приведенном выше рисунке рассуждения ИИ называются «черным ящиком». Почему?

Разработчик логически разрабатывает модель ИИ, обучая модель с помощью собранных знаний для анализа данных.

Разработчик никогда не знает, что делает машина для оценки результатов, т. е. факторы прозрачности, например,

  1. Что машина делает с черным ящиком, чтобы получить желаемые результаты, т. е. какой тип рассуждений/разума модель применяет к заданным данным «внутри»?
  2. Когда машина оценивает правильность рассуждений для конкретного случая в черном ящике, т. е. в какой момент времени модель решает, что логические рассуждения могут быть или не быть действительными для этих данных?
  3. Где машина определяет, что данное рассуждение может/может быть недействительным, т. е. на каком этапе выполнения машина решает прийти к конкретному выводу?
  4. Почему модель пришла к желаемому/нежелательному результату, т. е. что заставило машинный интеллект получить такой результат? Это вход или внутренняя логика, которая определяет выход?
  5. И, наконец, как входные данные проходят через модель рассуждений, т. е. как модель принимает решения?

Вот некоторые из интересных вопросов, которые мы можем задать машине, и да, на них должно быть достаточно ответов, чтобы объяснить поток выполнения, создавая прозрачность между человеком и машиной, что может улучшить взаимодействие между ними и также помогает разработчику время от времени контролировать/обновлять/проверять машину. И это можно сделать с помощью подхода под названием XAI или объяснимого ИИ. Это то, что я считаю удобной для человека машиной.

Некоторые из реальных примеров XAI:

  1. Представьте умную камеру наблюдения в банке, которая фиксирует повседневное движение, чтобы выяснить, в случае каких-либо несоответствий в банке. Сейчас в банке произошло ограбление, в котором грабители одеты в черную маску. Так называемая «умная» камера наблюдения фиксирует видео и тут же сообщает, что это ограбление могла совершить группа лиц определенной расы (или религии, пола, дресс-кода и т. д.), что может быть, а может и не быть. т.е. машина имеет сильное неправильное предвзятое отношение к расе (или религии, полу, дресс-коду и т.д.), что неприемлемо. Здесь проблема с моделью машины и изученными данными. Если в этом случае предположим, что у нас есть стратегия узнать, как работает машина, то мы сможем преодолеть такие проблемыms.
  2. Еще один случай из реальной жизни, в котором машина (или робот) установлена ​​для выявления заболеваний и связанных с ними состояний. Если машинная модель обеспечивает выходные данные на основе смещенных/взвешенных/наклонных факторов, то точка насыщения достигается быстро (относительно информации) в том, что касается предсказания/классификации. Следовательно, обучение, основанное на наклонных факторах, может привести к неправильным прогнозам. Более того, такие ошибки недопустимы в жизненно важной медицине/здравоохранении.
  3. Платформа электронной коммерции, интегрированная с головным дисплеем (HMD), чтобы клиенты могли опробовать продукт в режиме реального времени. Мы знаем, что люди путаются в том, подходит ли им выбранный продукт, особенно во время выбора одежды. Машина может интерпретировать результат как да/нет, т. е. подходит ли продукт или нет, на основе данных профиля пользователя (таких как пропорции тела, любимые цвета, рост, вес, тип ткани и т. д.). Покупатель после виртуальной примерки товара может задать модели ИИ (через модуль микрофона, подключенный к HMD): «Почему, как вы думаете, это платье мне идет?», на что машина может ответить (учитывая соответствующие факторы, на основании которых оно В заключение): «Я думаю, вам следует выбрать платье черного цвета вместо зеленого, потому что у вас уже есть 10 платьев зеленого цвета, а тканевое черное платье лучше, чем зеленое». Такой разговор может вывести опыт клиента на совершенно новый уровень, и машина может сохранить информацию для будущих прогнозов.
  4. Аналитик по кибербезопасности наблюдает за атакой на распределенную вычислительную среду. Но аналитик не мог понять источник и точку атаки даже после применения сильного брандмауэра на виртуальных машинах (ВМ). Чтобы понять уязвимости в системе (системах), аналитик может дать команду основной машине собрать и предоставить диаграмму данных журнала (в понятном формате) для обратного проектирования атак и восстановления уязвимой машины (машин).
  5. Еще один пример, в котором самоуправляемый автомобиль собирает пользовательские профили, такие как повседневная рутина и задачи владельца. Иногда владелец может забыть выполнить некоторые важные задачи, такие как «семейное собрание в четверг в 20:00 14 января 2020 года». Как только владелец садится в транспортное средство (учитывая, что владелец мог забыть о встрече), транспортное средство может двигаться к месту встречи. Владелец может задать вопрос «Почему вы едете в это место», на что помощник транспортного средства может ответить: «У вас сегодня семейное собрание в 20:00». Таким образом, помощник по транспортному средству может выполнять записанные задачи.

Эти примеры более футуристичны, поскольку технология XAI находится на начальной стадии. Применение ИИ может пережить спад в будущем, когда машины станут более интеллектуальными и сложными, чем люди.

Прежде чем закончить, я хотел бы задать вопрос: достаточно ли мы способны понять сложные объяснения модели ИИ? Этот вопрос важен, потому что человеческие решения принимаются под влиянием эмоций, иногда иррациональны и интуитивны, в то время как машинные объяснения логичны.

Дайте мне знать ваши мысли и отзывы об этой статье.

Ссылки:

https://en.wikipedia.org/wiki/Explainable_artificial_intelligence

https://www.darpa.mil/program/explainable-artificial-intelligence