Публикации по теме 'fairness-and-bias'


Насколько справедливы ваши модели машинного обучения?
Краткое введение в тему справедливости с помощью практического кодирования. Оцените справедливость своей модели машинного обучения, написав всего несколько строк кода. Являются ли модели машинного обучения «справедливыми»? Когда все больше решений подкрепляется алгоритмами машинного обучения, становится важно понимать предубеждения, которые они могут создавать. Но что значит «справедливость»? Здесь все становится немного политическим (и математическим)… Чтобы проиллюстрировать наши..

🔍 Откуда берутся предубеждения в ML? (4/Н) 📊 Выбор
В этом посте мы сосредоточимся на предвзятости выбора. 📊 Смещение выбора возникает, когда набор обучающих данных не является репрезентативным для населения, предназначенного для анализа. Теоретически он появляется, когда выбор данных не рандомизирован должным образом. Вот несколько хорошо известных примеров предвзятости отбора: ❌ Истощение Это смещение происходит, когда набор обучающих данных включает только субъектов, которые «выжили» в процессе. Например, представьте, что вы..

Обеспечение свободы от дискриминации ИИ с помощью стратегий смягчения предвзятости с открытым исходным кодом
Авторы: Джуно Прент, Флориан ван дер Стен Искусственный интеллект (ИИ) значительно улучшился за последние десять лет. Компьютеры теперь умеют предсказывать музыку, которая вам понравится, управлять автомобилями и помогать врачам диагностировать рак . ИИ применяется в различных сферах, и решения, принятые алгоритмически, могут иметь серьезные последствия. В таких задачах, как прогнозирование того, должен ли кто-то получить кредит, работу или даже сокращенный тюремный срок, влияние..

Снижение гендерных предубеждений при классификации занятий
Справедливость и предвзятость Снижение гендерных предубеждений при классификации занятий Новое приложение сверточных сетей на основе графов Авторы: Агнешка Добровольска , Харита Деллапорта , Йоханна Майер и Наташа Батт Поскольку появляется все больше свидетельств того, что некоторые результаты моделей машинного обучения на основе обработки естественного языка (NLP) могут способствовать распространению социальных предубеждений, мы исследуем смягчение гендерных..

Итак, насколько справедлив ваш ИИ?
О проблеме правильного достижения цели справедливости Использование искусственного интеллекта (ИИ) породило новые этические и юридические проблемы. В моей предыдущей статье я показал, почему удаление конфиденциальной информации из обучающих данных не способствует справедливости, а скорее наоборот. Эта статья посвящена определению наиболее подходящего определения честности для приложения ИИ. Индивидуальный инструмент был первоначально представлен в исследовательской статье ,..

Конфиденциальность и защищенные атрибуты: взаимосвязанные противоположные силы, лежащие в основе справедливости
В этом блоге д-р Тао Чжан, специалист по обработке и анализу данных в области искусственного интеллекта и сервисов платформ (AIPS) в SEEK, Мельбурн, пишет о решающей роли защищенных атрибутов в справедливом машинном обучении и дилемме между конфиденциальностью и справедливостью в с использованием защищенных атрибутов. 1. Введение Машинное обучение (МО) в настоящее время широко используется в качестве инструмента принятия решений во многих областях, таких как трудоустройство, оценка..

Компас справедливости
Революционный шаг вперед для надежного ИИ Искусственный интеллект уже широко используется в различных сегментах страховой индустрии, таких как прогнозирование кредитных рисков и рисков несчастных случаев. Однако использование этой технологии привело к возникновению новых этических и юридических проблем. И чтобы помочь нам преодолеть эти препятствия, только что был представлен новаторский инструмент. Номинированный на премию Gartner Eye on Innovation, Компас справедливости недавно..