Сегодня все больше компаний обращаются к специалистам по судебной экспертизе поведения ИИ, чтобы к 2023 году справиться с растущим риском для деловой репутации.

Со временем доверие пользователей к передовым технологиям падает по мере роста их использования, включая решения искусственный интеллект, автоматизация и машинное обучение. Кроме того, в этой новой норме участились случаи неправомерного использования данных и безответственных нарушений.

Gartner прогнозирует, что, несмотря на надзор со стороны регулирующих органов, направленный на предотвращение таких случаев, к 2023 году примерно 75% предприятий сосредоточатся на найме специалистов по судебной экспертизе поведения ИИ. снижение рисков для бренда и репутации.

Структура данных, местоположение и гендерная предвзятость представляют серьезные угрозы при обучении передовых моделей искусственного интеллекта. Даже критические алгоритмы, такие как глубокое обучение, обычно включают в свои оценки некоторые весьма изменчивые и неявные взаимодействия — это усложняет их интерпретацию.

Учитывая меняющийся рыночный ландшафт, отраслевые эксперты считают, что более высокие навыки наряду с технологическими решениями нового поколения имеют решающее значение для того, чтобы помочь компаниям снизить риск корпоративного бренда, определить потенциальные источники предпочтений и укрепить доверие, работая с моделями ИИ.

Также прочтите:Современным организациям все больше требуются специалисты по судебной экспертизе поведения ИИ в условиях пандемии

В результате многие директора по информационным технологиям и специалисты по аналитике данных в организациях предпочитают иметь на борту больше специалистов по криминалистике и этике, специализирующихся на машинном языке. Финансовые и технологические компании все чаще тестируют и внедряют новые решения для управления рисками и ИИ, чтобы решить эту проблему.

Например, такие известные предприятия, как Google, Facebook, NASA, Bank of America и т. д., уже много лет оснащают судебные органы по поведению искусственного интеллекта. Эти специалисты в первую очередь сосредоточены на выявлении нежелательной предвзятости в моделях искусственного интеллекта непосредственно перед их развертыванием.

Количество специалистов по технологиям будет постепенно увеличиваться в течение следующих пяти лет — в первую очередь в связи с резкой эскалацией процессов цифровой трансформации в разных отраслях. На самом деле, поставщики услуг планируют добавить новые возможности, чтобы модели машинного обучения были объяснимы — соответствовали определенным стандартам и аудитам.

Более того, многие компании также представили специальные инструменты объяснимости ИИ для поддержки своих клиентов и потребителей, категоризации предубеждений и исправления их в алгоритмах. Инструменты с открытым исходным кодом, такие как Local Interpretable Model-Agnostic Explanations, могут облегчить незапланированное различение перед обращением к моделям.

Также прочтите:Криминалистическая экспертиза поведения ИИ является необходимым условием в современной организации

Современные решения могут помочь следователям по отмыванию денег изучить влияние данных на конкретные чувствительные переменные. Это включает возраст, пол и расу по другим переменным. Кроме того, они могут измерить степень корреляции переменных друг с другом и выяснить, легко ли они приспосабливаются к ожиданиям усовершенствованной модели.

В этом контексте Джим Хэйр, вице-президент по исследованиям в Gartner, считает, что лидеры в области данных и аналитики должны установить ответственность за планирование и реализацию уровней доверия, а также прозрачность данных, алгоритмов и выходных данных для всех вариантов использования.

Последнее слово Хэйра: Крайне важно, чтобы они включали оценку функций объяснимости ИИ при оценке аналитики, «бизнес-аналитики, науки о данных и платформ машинного обучения».

Познакомьтесь с новым подкастом Enterprisetalk. Чтобы узнать больше о таких обновлениях, следите за нами в новостях Google Новости Enterprisetalk.