Заметки президента, основанные на панельной дискуссии для журнала CDO Magazine «Создание организаций AI/ML, которые являются этичными по замыслу»

Некоторые ответы на некоторые вдумчивые вопросы, основанные на панели, заполненной нашим президентом Аминой Аль Шериф, модератором которой является главный специалист по искусственному интеллекту Anno.Ai Эшли Антонидес.

Как вы определяете этику ИИ/данных?

ИИ и этика данных в самом широком смысле могут быть определены как руководящие принципы вашей организации, которые определяют, что правильно, а что неправильно. Нам понравилось это определение, потому что оно признает, насколько этически правильные и неправильные алгоритмы во многом зависят от внутренней культуры и этической структуры организации, а также от того, какую вертикаль или сектор обслуживает эта организация.

ИИ и этика данных в основном касаются ваших данных и того, как они обрабатываются при обучении системы машинного обучения (ML). Модели по своей сути не могут быть неэтичными из-за их крайней зависимости от данных, на которых они обучаются. Поэтому мы также признаем, что этическая природа модели — это не только алгоритм, выбранный для обучения на базе данных, но и состав самих данных.

Этика определяется как подходящая для каждой вертикали и каждой части организации. Это не ограничивается только командами по науке о данных. Он также не ограничивается только «горячими» вопросами, такими как климат, этническая принадлежность и раса, признавая при этом, что все эти области также являются вопросами данных и этики ИИ.

Как бы вы оценили или определили степень этики данных/ИИ?

«Этичный по замыслу» в конечном итоге производит системы самого высокого качества. Этика может быть применена или разбита на шесть аспектов создания системы машинного обучения. Эти шесть областей включают:

  1. Масштаб: Правильно ли определен масштаб задачи машинного обучения? Непредвзятым образом? Правильно ли решается проблема с помощью системы машинного обучения?
  2. Исследование данных: знаем ли мы, что находится в нашем пространстве данных и признаков? Имеют ли наши данные адекватное качество для выполнения задачи машинного обучения?
  3. Исследование алгоритма: подходят ли алгоритмы, которые мы рассматриваем для решения задачи машинного обучения, для имеющихся у нас типов данных? Правильно ли выбранные алгоритмы обучают безопасным и ключевым функциям?
  4. Обучение модели: правильно ли модель изучила данные? Подходит ли наша модель к нашим данным? Достигаются ли контрольные показатели производительности в таких важных областях, как точность, воспроизводимость и полнота?
  5. Тестирование перед развертыванием: протестировали ли мы нашу модель во всех адекватных областях, которые мы считаем важными для производительности?
  6. Постпроизводственный мониторинг: правильно ли обучена наша модель на корпусе данных? Требуется ли переподготовка? Он устарел? Видим ли мы красные флажки, такие как дрейф концепций?

Как вопросы этики данных влияют на вертикали, представляющие интерес для Консорциума по этике данных для безопасности?

DECS фокусируется на сфере национальной безопасности и правоохранительных органов. Есть, конечно, темы этики, присущие пространству и самой вертикали. Тем не менее, помимо этого, тема, которая была затронута одним из участников дискуссии в сфере розничной торговли, заключалась в том, что заинтересованные стороны и конечные пользователи хотели, чтобы данные рассказывали конкретное интересное повествование. Это также можно рассматривать в сфере национальной безопасности и разведки как этический вызов системам отмывания денег. Рассмотрим аналитика разведки, который всю свою карьеру работал с определенным набором целей. Он, вероятно, захочет, чтобы результаты науки о данных подтверждали его собственные мнения и предположения об их наборе целей, и может отвергнуть любые результаты, которые их не подтверждают.

Вот почему так важно привлекать ключевых руководителей организации к созданию и развертыванию систем машинного обучения и искусственного интеллекта на раннем этапе и часто, особенно в вопросах этики. Единственным преимуществом, наблюдаемым в государственных организациях, является хорошо структурированная система управления и контроля, позволяющая принимать решения наверху и строго обеспечивать их выполнение нижестоящими эшелонами. Если ИИ и этика данных имеют большое значение для лидера организации, то остальная часть организации, скорее всего, последуют этому примеру.

Миф: Нейронные сети необъяснимы.

Это была одна из тем, которая появилась на панели. Модели машинного обучения на основе нейронных сетей часто изображают как системы «черного ящика», которые невозможно понять. Этого не придерживается DECS — хотя системы машинного обучения и системы на основе нейронных сетей могут быть абстрактными по своей природе, в конце концов структура весов нейронной сети в конечном итоге основана на понятных математических процессах. Хотя выходные данные нейронной сети могут быть не полностью поняты, считается, что множество библиотек и технических конвейеров можно наложить поверх систем на основе нейронных сетей, чтобы лучше понять, как система идентифицировала функции, какие веса были присвоены этим функциям. , и какие веса в нейронной сети в конечном итоге дали процент уверенности в данном выходе.