Ответственный ИИ

Разработка прогностических моделей для добрых намерений в отношении сообщества является жизненно важной задачей. Развитие машинного обучения и искусственного интеллекта привело к появлению сложных технологий, таких как распознавание лиц. Распознавание лиц используется в различных явлениях, от безопасности до других сервисных услуг.

Однако эта технология далека от совершенства, поскольку очевидно, что она плохо работает, когда речь идет о цветных людях (афроамериканцах). Различные исследования показали, что большинство широко используемых моделей распознавания лиц дают ложные срабатывания на чернокожих, особенно чернокожих женщин.

Принимая это во внимание, некоторые городские подразделения используют распознавание лиц для мониторинга и отслеживания преступников. Поскольку эти модели дают ложные срабатывания на цветных людях, это может привести к судебному преследованию невиновных, которых считают преступниками. Это нарушает принципы ответственного ИИ.

Ответственный ИИ — это современная концепция из-за проблем, возникших с ростом ИИ. Такие проблемы, как ошибочная идентификация гражданских лиц как преступников посредством распознавания лиц, могут иметь пожизненные последствия для жертв. Говоря с этической точки зрения, этот вопрос вызывает опасения по поводу расизма и… вы знаете, к чему это приведет.

Некоторые исследователи говорят, что это может быть вызвано тем, что большинство данных, используемых для обучения этих моделей, содержат больше белых лиц, чем черных. Здесь нужно провести исследование. И, как цветные люди, мы относимся к этому как к области исследований, а не к усилению расистского давления в социальных сетях в Интернете.

Некоторые говорят, что трудно сделать качественную фотографию чернокожего человека. Это приводит к тому, что алгоритмы не могут выделить как можно больше функций на черных лицах, как на белых лицах. У меня были беседы со специалистами по фотографии и редактированию фотографий, и они согласились, что

«…Тон кожи чернокожего человека ретушировать труднее, чем у белого».

Таким образом, мы видим, что эта технология все еще далека от совершенства, и ее не следует использовать в случаях использования, связанных с выявлением виновных, поскольку еще предстоит провести годы исследований, прежде чем можно будет полностью доверять и надеяться на технологию распознавания лиц.

Мы, африканские исследователи искусственного интеллекта, должны рассматривать это как область исследования и попытаться сделать все возможное, чтобы решить или, по крайней мере, внести свой вклад в искоренение этой проблемы. И будьте послами, рассказывая людям, что это не имеет ничего общего с расизмом, этнической принадлежностью или чем-то еще. Скорее, это все еще развивающаяся технология, которая делает первые шаги к совершенству.