TL;DR:

TL;DR Игнорирование конфиденциальных атрибутов в системах ИИ не является подходящим решением для обеспечения справедливости, поскольку они могут быть связаны с другими переменными, которые дают подсказки к защищенной информации. Вместо этого необходимо активное использование чувствительных атрибутов для обнаружения любого типа дискриминации и гарантии беспристрастных решений.

Краткое содержание:

. В последние годы искусственный интеллект (ИИ) получил высокую оценку за его потенциал революционизировать то, как мы работаем и живем. Но с этими достижениями возникают некоторые риски, особенно когда речь идет о справедливости ИИ. Системы ИИ могут легко обучаться и увековечивать предвзятость, что приводит к неравному обращению с людьми из-за их принадлежности к чувствительной группе. Простое игнорирование любых конфиденциальных атрибутов в данных может показаться простым решением, но этот метод, известный как справедливость через неосведомленность, не является правильным подходом. Удаляя конфиденциальные атрибуты, мы не можем гарантировать беспристрастность ИИ. Даже без доступа к конфиденциальным атрибутам системы искусственного интеллекта опираются на многомерные и сильно коррелированные наборы данных, которые людям трудно обнаружить. Существуют даже эвристические методы для активного восстановления отсутствующих чувствительных атрибутов, что позволяет системе ИИ, например, продолжать назначать женщинам более низкую заработную плату. Нынешняя практика попытки игнорировать существование конфиденциальных подгрупп путем исключения конфиденциальных атрибутов может на самом деле нести больший риск, чем любые проблемы конфиденциальности, связанные со сбором данных. Чтобы решения ИИ оставались беспристрастными, необходимо разработать технические механизмы безопасности, которые защитят конфиденциальные атрибуты от неправомерного использования, в то же время позволяя их активное использование, чтобы сделать уязвимые подгруппы видимыми и учитывать их. Простое решение удаления конфиденциальных атрибутов недостаточно для обеспечения безопасности. Справедливость ИИ. Этот метод не только неэффективен, но и контрпродуктивен, поскольку очень затрудняет обнаружение нежелательных смещений. Вместо этого необходимо активно использовать конфиденциальные атрибуты, чтобы сделать конфиденциальные подгруппы видимыми и учитывать их. Это требует реализации технических механизмов безопасности для защиты конфиденциальных атрибутов от неправомерного использования и обеспечения соблюдения стандартов справедливости и недискриминации.

Ознакомьтесь с полной историей, первоначально опубликованной по адресу: https://towardsdatascience.com/to-guarantee-impartial-ai-decisions-lady-justice-needs-to-blink-2992167b2591?source=rss----7f60cf5620c9-- -4»