[Примечание редактора. Это первая из двух статей блога, посвященных тому, как отрасли адаптируют искусственный интеллект (ИИ). В двух частях мы рассмотрим искусственный интеллект для ИТ-операций (AIOps), этику искусственного интеллекта (этический ИИ), объяснимый ИИ (XAI) и периферийный ИИ.]

Поскольку искусственный интеллект (ИИ) быстро адаптируется к различным бизнес-функциям, многие организации планируют изменить способ ведения бизнеса с помощью ИИ и внедрить ИИ. Поскольку это происходит, необходимо рассмотреть, оценить и обсудить несколько аспектов ИИ.

Некоторые из этих характеристик ИИ включают искусственный интеллект для ИТ-операций или AIOps, этику искусственного интеллекта или этический ИИ, объяснимый ИИ или XAI и пограничный ИИ.

Давайте рассмотрим каждый из них более подробно. Но сначала немного из недавней истории ИИ.

Недавняя история ИИ

За последние несколько лет искусственный интеллект показал огромный потенциал и многообещающее направление. Но неожиданные события во время бурного 2020 года (пандемия коронавируса) вызвали быструю цифровую трансформацию в организациях, втиснув годы инноваций в несколько месяцев.

Прорыв заставил организации преобразовать и внедрить инновационные технологии, включая ИИ, в мгновение ока. И эксперты в области искусственного интеллекта предсказывают, что эта тенденция не замедлится, а даже ускорится.

Люди, хорошо разбирающиеся в области ИИ, прогнозируют, что ИИ значительно расширится в 2021 году и далее. По сравнению с предыдущими годами, когда организации могли экспериментировать с искусственным интеллектом, машинным обучением (ML) и автоматизацией процессов, 2020 год оказался годом, когда нужно нырнуть с головой, сообщает журнал Forbes.

В то время как в 2020 году было ускорено развертывание многих уникальных платформ, исследований и инструментов, в значительной степени использующих ИИ, ожидается, что в 2021 году будет гораздо больше. Эксперты подчеркивают, что он был заслуженно назван Золотым годом внедрения ИИ.

В целом 2021 год будет отмечен ростом ИИ, определяемым запуском многих приложений ИИ, обеспечивающих понимание, эффективность и экономичность в цифровую эпоху. И хотя он будет продолжать проникать во все сферы вашей жизни, следующие области, в которых, по прогнозам, ИИ окажет наибольшее влияние на вашу организацию в 2021 году.

AIOps

Искусственный интеллект для ИТ-операций (AIOps) — это термин, введенный Gartner в 2016 году для аналитики машинного обучения для улучшения аналитики ИТ-операций. AIOps — это аббревиатура от «алгоритмических ИТ-операций».

Задачи AIOps включают в себя автоматизацию, мониторинг производительности, корреляцию событий, прогнозный анализ, обнаружение аномалий, анализ основных причин (RCA), механизмы оповещения и функции управления облаком.

Существует два типа AIOps: ориентированный на домен и независимый от домена. Ориентированные на домен AIOps могут применяться к конкретному домену. Между тем, AIOps, не зависящие от домена, можно применять к любому домену.

Вот несколько передовых методов или рекомендаций по внедрению AIOps в инфраструктуру, операции и управление облаком.

  • Сосредоточьтесь на конкретном варианте использования, который можно заменить аналитикой событий на основе правил. Затем внедрите рабочие процессы, ориентированные на предметную область, путем приема событий, метрик и трассировок.
  • Внедрите управление ИТ-услугами (ITSM), поскольку своевременное управление уровнями обслуживания становится критически важным.

Функции модели AIOps

  • Собирайте данные из различных источников, таких как облако, платформы, системы, сети, базы данных и т. д.
  • Принимать данные в централизованное озеро данных.
  • Классифицируйте и распределяйте данные по значимым классам и категориям.
  • Анализируйте исторические данные и создавайте корпоративные графики на основе исторических данных.
  • Упреждающий анализ будущих событий на основе данных в реальном времени на основе исторических данных.
  • Выполнение действий на основе прогнозного анализа.
  • Отслеживайте и измеряйте точность модели, а затем предоставляйте модели обратную связь, повышая точность прогнозов и действий.

Этический ИИ

Этический ИИ (этика искусственного интеллекта) — это раздел технологической этики, специфичный для систем ИИ. Это связано с тем, как моральное поведение системы ИИ сравнивается с человеческим поведением, поскольку моральное поведение машин создается людьми.

Основная идея состоит в том, чтобы разработать беспристрастные системы, рассматривающие всех равными и справедливыми. Организации должны планировать снижение риска. То есть, как использовать данные и разрабатывать продукты ИИ, не попадая при этом в этические ловушки.

Существует 11 этических принципов, которым должен следовать ИИ:

  • Прозрачность
  • Справедливость и справедливость
  • Непричинение вреда
  • Обязанность
  • Конфиденциальность
  • благодеяние
  • Свобода и автономия
  • Доверять
  • устойчивость
  • Достоинство
  • Солидарность

Кроме того, он разделен на меньшее количество категорий: машинная этика, сингулярность и сверхинтеллектуальный ИИ.

  • Этика машин (машинная мораль, вычислительная мораль, вычислительная этика) является частью этики ИИ, которая добавляет или обеспечивает моральное поведение производимых машин. Их называют агентами ИИ, использующими искусственный интеллект.
  • Сингулярность — это гипотетический момент времени, когда технологический рост становится неуправляемым и необратимым и, возможно, влияет на человеческую цивилизацию. Путем «взрыва интеллекта» самосовершенствующийся ИИ может стать настолько могущественным, что люди не смогут помешать ему достичь своих целей. Все потому, что они становятся способными к самостоятельной инициативе и к составлению собственных планов по достижению целей.
  • Сверхразум — это гипотетический агент, обладающий интеллектом, превосходящим самые одаренные и яркие человеческие умы. Это может привести к тому, что машины станут более мощными, чем люди, а затем вытеснят людей.

Этические вызовы

ИИ все больше проникает в системы распознавания голоса и лица. Они имеют подлинные бизнес-приложения и непосредственно влияют на людей.

Эти системы уязвимы для предубеждений и ошибок, преднамеренно или непреднамеренно вносимых их человеческими создателями. Это может быть связано с необъективными данными, используемыми для обучения модели ИИ. Или по способу создания модели. Любая предвзятость или ошибка из-за пола, голоса или акцента может ощутимо или нематериально изменить ваш бизнес.

Угроза человеческому достоинству

В некоторых случаях, поскольку мы люди, мы нуждаемся и ожидаем подлинного чувства сочувствия от определенной категории людей и определенных позиций. Если их заменят машины, люди почувствуют себя отчужденными и разочарованными, поскольку система ИИ не способна к сочувствию. Таким образом, ИИ может привести и представлять угрозу человеческому достоинству.

Ответственность за беспилотные автомобили

Поскольку широкое использование автономных или беспилотных автомобилей становится все более неизбежным, необходимо решать новые проблемы, связанные с полностью автономными транспортными средствами. Это должно управлять юридическими осложнениями и правилами. Существует много споров о юридической ответственности виновного лица, если такие автомобили попадают в аварию.

Это может вызвать ряд вопросов, например:

  • Кто был виноват? Водитель или машина?
  • Это по вине ПО или драйвера?
  • Кто отвечает за ответственность? Владелец, производитель автомобилей или правительство?

В настоящее время беспилотные автомобили считаются полуавтономными. Они требуют от водителя внимания и контроля, когда это необходимо. Таким образом, в этих случаях водитель несет ответственность за любое дорожно-транспортное происшествие.

Теперь нашим федеральным правительствам и/или правительствам штатов приходится регулировать водителей, которые полагаются на автономные функции. Лучше всего обучать водителей, это всего лишь технологии, которые обеспечивают более удобное вождение, но не являются полной заменой безопасного вождения.

Короче говоря, прежде чем автономные автомобили станут широко использоваться во всем мире, эти проблемы и вопросы ответственности, правил, обучения и технологий должны быть решены с помощью новых политик и процедур.

Вооружение ИИ

Точно так же, как проблемы, изложенные для автономных автомобилей, и юридическая ответственность несчастных случаев, есть опасения по поводу использования ИИ в военных роботах.

По мере того, как военные роботы становятся все более сложными и интеллектуальными, наше федеральное правительство и Министерство обороны (МО) должны уделять больше внимания способности роботов принимать автономные решения. Роботы могут принимать свои собственные логические решения о том, кого убивать или уничтожать, но должны быть определенные, установленные и соблюдаемые моральные рамки, которые ИИ не может отменить. Оружие с искусственным интеллектом более опасно, чем управляемое человеком.

Актеры этики ИИ

Есть много организаций, занимающихся этикой и политикой ИИ — правительственных, общественных, корпоративных и социальных. Microsoft, Google, Amazon, IBM и Facebook создали некоммерческое партнерство для разработки передового опыта в области технологий искусственного интеллекта. Это поможет наметить общее общественное понимание и послужит платформой для ИИ.

В настоящее время Институт инженеров по электротехнике и электронике (крупнейшая в мире техническая профессиональная организация) и правительства устанавливают руководящие принципы этики ИИ. А «Руководство по регулированию приложений искусственного интеллекта» — это приказ, в котором подчеркивается необходимость инвестировать в приложения ИИ, повышать общественное доверие к ИИ, снижать барьеры для использования ИИ и поддерживать конкурентоспособность американских технологий ИИ на мировом рынке.

Операция данных, этика ИИ

Этика ИИ не поставляется в заранее определенной коробке, готовой к внедрению. Поскольку ценности различаются в зависимости от организации в разных вертикалях, программа этики данных и ИИ должна быть адаптирована к конкретным потребностям бизнеса и нормативным требованиям. Те, которые актуальны для каждой организации и вертикали.

Вот несколько шагов, которые помогут создать оперативные, настраиваемые, масштабируемые и устойчивые данные для программы этики ИИ.

Найдите существующую инфраструктуру, которую программа этики данных и ИИ может использовать и масштабировать. Ключом к успешному созданию программы этики данных и ИИ является использование мощности и авторитета существующей инфраструктуры. Это включает в себя совет по управлению данными для регулирования и управления конфиденциальностью данных, соответствием данных, безопасностью данных, кибербезопасностью и любыми рисками, связанными с данными. Если в вашей организации нет команды по управлению данными, пришло время ее создать.

Создайте систему этических рисков, связанных с данными и ИИ, адаптированную к вашей отрасли. Создайте структуру, идеально подходящую для вашей отрасли (например, HIPAA, GDPR, SOX и т. д.), включая внутренних и внешних заинтересованных лиц, с правильными отраслевыми KPI. Как только вы обнаружите этические риски, также разработайте план их смягчения.

Исследуйте и изучайте другие организации в вашей отрасли. Учитесь и меняйте свое этическое мышление, опираясь на отраслевые успехи. Например, в здравоохранении есть HIPAA, что означает конфиденциальность и уважение к пациентам, получающим лечение только после того, как они дадут информированное согласие.

Оптимизируйте руководство и инструменты для менеджеров по продуктам. Создавайте детализированные инструменты, предоставляйте высокоуровневые рекомендации и оценивайте важность «объяснимости» для любого конкретного продукта.

Повысьте осведомленность организации. Проводите учебные занятия, чтобы сотрудники, подрядчики и все, кто имеет дело с вашими данными или продуктами ИИ, понимали и придерживались принципов вашей организации в отношении данных и этики ИИ.

Формально и неформально поощряйте сотрудников к участию в выявлении этических рисков ИИ. Как мы узнали из многих печально известных примеров, этические стандарты нарушаются, когда люди получают финансовые стимулы к неэтичным действиям.

Точно так же отсутствие финансового стимулирования этических действий может привести к тому, что они потеряют приоритет.

Ценности организации частично определяются тем, как она направляет финансовые ресурсы. Когда сотрудники не видят бюджета, стоящего за масштабированием и поддержанием сильной программы этики данных и искусственного интеллекта, они обращают свое внимание на то, что движет их вперед в их карьере.

Поэтому важно вознаграждать людей за их усилия по продвижению программы этики данных.

Отслеживайте воздействие и привлекайте заинтересованные стороны. Создание организационной осведомленности, комитеты по этике, информированные менеджеры по продукции, владельцы, инженеры и сборщики данных являются частью процессов разработки и, в идеале, процессов закупок.

Но ограниченные ресурсы, время и общая неспособность представить все возможные варианты развития событий означают, что крайне важно отслеживать влияние данных и продуктов ИИ на рынок. Учтите, что автомобиль может быть построен с подушками безопасности и зонами деформации, но это не означает, что на нем безопасно ездить со скоростью 100 миль в час. Точно так же продукты ИИ могут разрабатываться с соблюдением этических норм, но применяться неэтично.

Предстоит провести как качественные, так и количественные исследования. Это особенно требует привлечения заинтересованных сторон, чтобы решить, как продукт повлиял на них. Действительно, в идеальном сценарии соответствующие заинтересованные стороны назначаются на ранней стадии процесса разработки и помогают сформулировать, что продукт делает, а что нет.

Операционализация данных и этика ИИ — непростая задача. Это требует поддержки со стороны высшего руководства, а также межфункционального сотрудничества. Однако организации, делающие инвестиции, увидят не только снижение рисков, но и более эффективное внедрение технологий, необходимых для продвижения вперед.

И, наконец, они будут именно тем, что ищут ваши клиенты, потребители и сотрудники: надежностью.

Вывод

Если вы уже находитесь на пути к ИИ, но блуждаете, не знаете, куда идти дальше или только собираетесь, лучше всего сотрудничать с надежным консультантом, таким как System Soft Technologies.

System Soft может помочь вашей организации оптимизировать бизнес-процессы с помощью ИИ (и роботизированной автоматизации процессов). Мы стремимся к тому, чтобы вы достигли целей по доходам, эффективно использовали ресурсы и снизили эксплуатационные расходы.

[Посмотрите вебинар по запросу: Как предприятия малого и среднего бизнеса преодолевают барьеры автоматизации]

System Soft проводит с вами двух-трехчасовой семинар, чтобы изучить вашу ситуацию. Затем мы сотрудничаем с вами, чтобы найти ответы на ваши вопросы и разработать стратегию решения ваших проблем.

Нажмите здесь, чтобы узнать больше о нашем бесплатном семинаре. Для бесплатной консультации свяжитесь с Раджешем Патилом по адресу [email protected].

[Посмотрите вебинар по запросу: Преодоление шумихи вокруг гиперавтоматизации]

[Читать: Дистилляция интеллектуальной автоматизации]

Об авторе: Раджеш Патил

Раджеш Патил — директор по интеллектуальной автоматизации компании System Soft Technologies. Раджеш имеет более чем 20-летний опыт работы в отрасли, помогая организациям пройти обширный путь трансформации, уделяя особое внимание совершенствованию процессов. Он разбирается в роботизированной автоматизации процессов (RPA), интеллектуальной автоматизации, жизненном цикле E2E-продаж, архитектуре решений и предоставлении автоматизации в различных вертикалях.