Это последняя статья из серии, посвященной этике распознавания речи и эмоций.
Предыдущие статьи можно найти здесь:





Итак, мы обсудили несколько этических проблем, связанных с распознаванием речи и эмоций. Мы рассмотрели конфиденциальность, согласие, прозрачность, предвзятость и справедливость.

В этом заключительном посте будут рассмотрены вопросы точности, применения, ответственности, подотчетности и мониторинга.

Ждать! Они кажутся скорее техническими, чем этическими соображениями! Это верно. Профессиональная этика является неотъемлемой частью работы каждого. И не следовать лучшим практикам и высочайшим стандартам, а также безответственно и бессистемно строить систему, особенно часть ИИ, которая может автоматизировать многие решения, на мой взгляд, крайне неэтично.

Технические стандарты были созданы для обеспечения безопасности и надежности. Они созданы для обеспечения предсказуемости и воспроизводимости реакции системы. Игнорируя эти стандарты, вы как минимум ставите под угрозу качество предоставляемых услуг и, возможно, в случае SER ставите под угрозу здоровье и безопасность конечных пользователей.

А также нет необходимости упоминать, что, как правило, значительная часть технических стандартов способствует обеспечению безопасности всех вовлеченных сторон. Тем не менее, эти методы обычно требуют накладных расходов на создание и выполнение, и их пропуск является обманом вашей клиентской базы и отрасли, поскольку экономия этих затрат в краткосрочной перспективе создает несправедливое преимущество в ресурсах, но в долгосрочной перспективе ставит под угрозу конечный результат. пользователь. Подумайте о производителе автомобилей, игнорирующем все стандарты безопасности!

Теперь, когда мы знаем, как они связаны, давайте погрузимся и выясним!

Точность

Точность — важная мера производительности модели машинного обучения. Модель должна быть точной при прогнозировании эмоций в случае SER, и отчет о точности системы должен выходить за рамки простого расчета невзвешенной точности. Прежде всего, большинство баз данных SER сильно несбалансированы. Таким образом, расчет невзвешенной точности и отчет о модели с точностью 75 % лжет покупателю, когда ваша взвешенная точность для наименьшего класса составляет 60 %.

Рассмотрим модель, используемую на горячей линии для самоубийц. такие эмоции, как отчаяние и безнадежность, имеют основополагающее значение для оценки ситуации. Однако во многих базах данных не так много образцов этих эмоциональных классов. И их легко можно назвать грустью или скукой. Теперь модель с точностью 50% в отчаянии и точностью 80% в счастье, гневе, печали и нейтральных эмоциях определенно будет трагична в дикой природе.

В том же контексте есть много случаев, когда нам нужно исследовать точность, полноту и оценку F1, помимо точности. Основываясь на обзоре, который мы опубликовали в прошлом году, и после прочтения и обзора более 100 статей в SER, я могу с уверенностью сказать, что они не упоминаются в большинстве исследований, так же как и взвешенная точность.

Матрица путаницы — еще один жизненно важный инструмент, особенно для случаев использования с несколькими важными классами и группой неважных классов, на которых следует сосредоточиться. Вернемся к нашему примеру с горячей линией для самоубийц. Высокая эмоциональность и сильное возбуждение не так важны для предупреждения о возможном самоубийстве. И мы знаем, что у нас сильно несбалансированная база данных. Поэтому изучение матрицы путаницы и принятие на себя риска ложноотрицательных результатов в целевых классах становится более важным, чем одна только точность.

Как мы видим, точное сообщение о точности системы играет очень этическую роль в SER, просто подумайте, какие разрушительные последствия могут быть у системы, которая уверенно ставит неверный диагноз кому-то, в случае психиатрической поддержки или той же горячей линии для самоубийц, которую мы обсуждали.

Приложение

Еще одним этическим соображением в SER является то, чего общественность обычно боится в отношении ИИ в наши дни, а именно возможности его использования в гнусных целях. Подумайте о том, что SER становится помощником в судах, чтобы определять состояние ума людей и одного человека, которым манипулируют, адаптируя сообщения, чтобы вызвать определенные эмоции. Этого должно быть достаточно, чтобы понять, насколько это может быть важно и страшно.

Ответственность

Ответственность – еще одно этическое соображение в SER. Разработчики и пользователи технологии должны нести ответственность за этические последствия своей работы и ее использование. Это означает, что они должны нести юридическую ответственность за свой код, учитывать потенциальные последствия своих действий и предпринимать шаги для смягчения любых неблагоприятных последствий.

Подотчетность

Подотчетность также имеет решающее значение в SER. Если что-то пойдет не так с технологией, должен быть способ привлечь виновных к ответственности. Это означает, что должны быть четкие правила использования технологии, и те, кто нарушает эти правила, должны нести ответственность.

Мониторинг

Наконец, существует потребность в постоянном мониторинге и оценке СЭА. Поскольку технология продолжает развиваться, жизненно важно оценивать ее этические последствия и при необходимости вносить изменения. Это означает, что должны быть постоянные исследования в области использования SER и готовность внедрять концепции автоадаптивного обучения в модели и конвейеры, чтобы обеспечить динамическое обновление системы в соответствии с социальными тенденциями.

В заключение, как мы рассмотрели, этика играет важную роль в распознавании речи и эмоций (SER), охватывая различные аспекты, помимо технических проблем. Наше исследование этических соображений, включая конфиденциальность, согласие, прозрачность, предвзятость, справедливость, точность, безопасность, применение, ответственность, подотчетность и мониторинг, подчеркивает важность профессиональной этики в этой области. Игнорирование технических стандартов и лучших практик при разработке систем SER неэтично. Это ставит под угрозу качество обслуживания и потенциально угрожает здоровью и безопасности людей, полагающихся на эти системы. Технические стандарты обеспечивают безопасность, надежность и предсказуемость реакции системы, обеспечивая безопасность для всех вовлеченных сторон. Придерживаясь этих стандартов, мы избегаем несправедливых преимуществ в отношении ресурсов и поддерживаем этическую ответственность перед клиентами и отраслью. Охватывая этические принципы, область SER может способствовать позитивным, ответственным и социально полезным технологическим достижениям.

Будем надеяться и пытаться создавать системы ИИ, что этика, права человека и ценности встроены в каждую строку его кода.

Спасибо, что нашли время, чтобы прочитать это!