Сегодня наш мир экспоненциально движется к ИИ, поскольку мы окружены его приложениями, например, в таких областях, как образование, здравоохранение, инженерия, средства массовой информации и электронная коммерция, право, сектор услуг/государственный сектор, транспорт и т. д., потому что это делает нашу жизнь легкая и комфортная.
Представьте себе мир, в котором мобильная сущность (т. е. автомобили с автоматическим управлением, беспилотные летательные аппараты (БПЛА) и т. д., или любые программно-аппаратные инфраструктуры (облачные вычисления, Интернет вещей, робототехника) или безопасность/обнаружение аномалий (т. е. , Безопасность данных/Интернета, Блокчейн-приложения), Математические вычисления (например, квантовые вычисления), Обработка естественного языка, взаимодействие человека с компьютером (HCI) и т. д., объясняющие нам восприятие машин?
Мы знаем, что люди получают знания, применяя методы проб и ошибок для решения проблемы, чтобы найти решение в течение периода времени для достижения эффективного решения. Этот подход одинаков и для обучающихся машин. На приведенном ниже рисунке можно четко объяснить работу ИИ.
На приведенном выше рисунке рассуждения ИИ называются «черным ящиком». Почему?
Разработчик логически разрабатывает модель ИИ, обучая модель с помощью собранных знаний для анализа данных.
Разработчик никогда не знает, что делает машина для оценки результатов, т. е. факторы прозрачности, например,
- Что машина делает с черным ящиком, чтобы получить желаемые результаты, т. е. какой тип рассуждений/разума модель применяет к заданным данным «внутри»?
- Когда машина оценивает правильность рассуждений для конкретного случая в черном ящике, т. е. в какой момент времени модель решает, что логические рассуждения могут быть или не быть действительными для этих данных?
- Где машина определяет, что данное рассуждение может/может быть недействительным, т. е. на каком этапе выполнения машина решает прийти к конкретному выводу?
- Почему модель пришла к желаемому/нежелательному результату, т. е. что заставило машинный интеллект получить такой результат? Это вход или внутренняя логика, которая определяет выход?
- И, наконец, как входные данные проходят через модель рассуждений, т. е. как модель принимает решения?
Вот некоторые из интересных вопросов, которые мы можем задать машине, и да, на них должно быть достаточно ответов, чтобы объяснить поток выполнения, создавая прозрачность между человеком и машиной, что может улучшить взаимодействие между ними и также помогает разработчику время от времени контролировать/обновлять/проверять машину. И это можно сделать с помощью подхода под названием XAI или объяснимого ИИ. Это то, что я считаю удобной для человека машиной.
Некоторые из реальных примеров XAI:
- Представьте умную камеру наблюдения в банке, которая фиксирует повседневное движение, чтобы выяснить, в случае каких-либо несоответствий в банке. Сейчас в банке произошло ограбление, в котором грабители одеты в черную маску. Так называемая «умная» камера наблюдения фиксирует видео и тут же сообщает, что это ограбление могла совершить группа лиц определенной расы (или религии, пола, дресс-кода и т. д.), что может быть, а может и не быть. т.е. машина имеет сильное неправильное предвзятое отношение к расе (или религии, полу, дресс-коду и т.д.), что неприемлемо. Здесь проблема с моделью машины и изученными данными. Если в этом случае предположим, что у нас есть стратегия узнать, как работает машина, то мы сможем преодолеть такие проблемыms.
- Еще один случай из реальной жизни, в котором машина (или робот) установлена для выявления заболеваний и связанных с ними состояний. Если машинная модель обеспечивает выходные данные на основе смещенных/взвешенных/наклонных факторов, то точка насыщения достигается быстро (относительно информации) в том, что касается предсказания/классификации. Следовательно, обучение, основанное на наклонных факторах, может привести к неправильным прогнозам. Более того, такие ошибки недопустимы в жизненно важной медицине/здравоохранении.
- Платформа электронной коммерции, интегрированная с головным дисплеем (HMD), чтобы клиенты могли опробовать продукт в режиме реального времени. Мы знаем, что люди путаются в том, подходит ли им выбранный продукт, особенно во время выбора одежды. Машина может интерпретировать результат как да/нет, т. е. подходит ли продукт или нет, на основе данных профиля пользователя (таких как пропорции тела, любимые цвета, рост, вес, тип ткани и т. д.). Покупатель после виртуальной примерки товара может задать модели ИИ (через модуль микрофона, подключенный к HMD): «Почему, как вы думаете, это платье мне идет?», на что машина может ответить (учитывая соответствующие факторы, на основании которых оно В заключение): «Я думаю, вам следует выбрать платье черного цвета вместо зеленого, потому что у вас уже есть 10 платьев зеленого цвета, а тканевое черное платье лучше, чем зеленое». Такой разговор может вывести опыт клиента на совершенно новый уровень, и машина может сохранить информацию для будущих прогнозов.
- Аналитик по кибербезопасности наблюдает за атакой на распределенную вычислительную среду. Но аналитик не мог понять источник и точку атаки даже после применения сильного брандмауэра на виртуальных машинах (ВМ). Чтобы понять уязвимости в системе (системах), аналитик может дать команду основной машине собрать и предоставить диаграмму данных журнала (в понятном формате) для обратного проектирования атак и восстановления уязвимой машины (машин).
- Еще один пример, в котором самоуправляемый автомобиль собирает пользовательские профили, такие как повседневная рутина и задачи владельца. Иногда владелец может забыть выполнить некоторые важные задачи, такие как «семейное собрание в четверг в 20:00 14 января 2020 года». Как только владелец садится в транспортное средство (учитывая, что владелец мог забыть о встрече), транспортное средство может двигаться к месту встречи. Владелец может задать вопрос «Почему вы едете в это место», на что помощник транспортного средства может ответить: «У вас сегодня семейное собрание в 20:00». Таким образом, помощник по транспортному средству может выполнять записанные задачи.
Эти примеры более футуристичны, поскольку технология XAI находится на начальной стадии. Применение ИИ может пережить спад в будущем, когда машины станут более интеллектуальными и сложными, чем люди.
Прежде чем закончить, я хотел бы задать вопрос: достаточно ли мы способны понять сложные объяснения модели ИИ? Этот вопрос важен, потому что человеческие решения принимаются под влиянием эмоций, иногда иррациональны и интуитивны, в то время как машинные объяснения логичны.
Дайте мне знать ваши мысли и отзывы об этой статье.
Ссылки:
https://en.wikipedia.org/wiki/Explainable_artificial_intelligence
https://www.darpa.mil/program/explainable-artificial-intelligence