Я полагаю, что, возможно, я придумал новый термин, «Раздел ИИ», в своей статье под названием «Потенциальное социальное влияние разделения ИИ» (по крайней мере, когда я гуглил этот термин перед отправкой статьи). Около двух недель назад я поделился докладом и презентацией о разделении ИИ на весеннем симпозиуме Американской ассоциации искусственного интеллекта (AAAI) по ИИ и обществу: этика, безопасность и надежность интеллектуальных агентов, проходившем в Стэнфордском университете. В моей статье и презентации обсуждалось, что такое разрыв ИИ, и задавались следующие вопросы:

  • Существует ли разделение ИИ?
  • Есть ли группы населения, на которые негативно влияет разделение ИИ?
  • Должна ли существовать государственная политика, которая защитит «маргинализированные группы населения с искусственным интеллектом»?
  • Должны ли мы обеспечить ИИ-грамотность для всех граждан?
  • Будет ли разрыв между ИИ продолжать увеличиваться или сокращаться?

Это вопросы, которые потребуют дальнейшего обсуждения, исследования и ответов. Цифровой разрыв начался в 80-х годах с появлением персональных компьютеров, а затем и Интернета, а также неравенства в доступе к вычислительным устройствам, быстрому Интернету и доступу к доступным через Интернет источникам знаний. Это способствовало социально-экономическому неравенству, включая качество образования, готовность к поступлению в колледж, перспективы карьерного роста и доход.

Разрыв ИИ развивается, потому что ИИ становится все более и более повсеместным в нашей повседневной жизни. ИИ становится все более распространенным в электронной коммерции (например, Amazon), распознавании естественного языка (например, Siri), социальных сетях (например, Facebook), информационных технологиях и даже носимых устройствах (например, Apple Watch). Несколько стартапов и автопроизводителей хотят сделать ИИ повсеместным в беспилотных автомобилях, хотя в последнее время у Uber и Tesla были безвременные смерти, связанные с ИИ, задействованным в беспилотных автомобилях.

До этой недели я видел Цикл продукта ИИ, в котором люди выступали в качестве потребителей продуктов ИИ, а компании, которые разрабатывали и контролировали оборудование, данные и алгоритмы, выступали в качестве производителей продуктов ИИ. Люди взаимодействуют с этим оборудованием для генерации данных, тесно связанных с их эмоциями и поведением, которые, в свою очередь, используются алгоритмами компаний для создания продуктов с поддержкой ИИ (например, приложения Facebook).

Но, как мы видим в последнее время, такие компании, как Facebook, используют личные данные людей, чтобы подпитывать алгоритмы своих социальных сетей, чтобы влиять на поведение людей. В данном случае воздействуя на поведение избирателей, а также на их покупательское поведение. Но Facebook не уникален. Другие крупные компании, в том числе обычные подозреваемые (например, Google), делают то же самое, чтобы монетизировать эти алгоритмы, используя рекламу для влияния на поведение.

Один пользователь сказал это лучше всего в онлайн-интервью о тактике Facebook и сказал, что он понял, что он продукт. Его данные продавались, чтобы другие могли накормить свои психографические алгоритмы машинного обучения, чтобы узнать, как лучше всего использовать его личную информацию, чтобы заставить его голосовать или покупать так, как того хотела компания. То, что он сказал, поднимает вопрос: являетесь ли ВЫ продуктом этих компаний, которые используют ваши данные и алгоритмы ИИ, чтобы влиять на ВАШЕ поведение?

Разделение на ИИ — это разделение между компаниями, владеющими оборудованием, данными, алгоритмами и приложениями, которые мы с вами используем, чтобы они могли использовать наши эмоции и поведение, и теми из нас, кто ими владеет. Большинство людей неграмотны в области ИИ и не понимают ни основ того, как используются их данные, ни того, как работают эти алгоритмы машинного обучения. Несоответствие между теми, кто создает, владеет, использует и понимает эти алгоритмы, и теми, кто этого не делает, является разделением ИИ и может привести к неравенству в качестве здоровья, безопасности и процветания.

В отличие от цифрового неравенства, ИИ-разделение не обязательно будет существовать по расовому, социально-экономическому или даже политическому или образовательному признаку. Разделение ИИ может существовать по этим линиям между производителями/владельцами оборудования, данных, алгоритмов и приложений ИИ и теми, кто является только потребителями, а в некоторых случаях и живыми и дышащими «продуктами», продаваемыми и находящимися под влиянием ИИ. .

Что можно сделать, чтобы решить проблему ИИ? Это ответы, которые нам нужно принять, пока не стало слишком поздно.

Эндрю Б. Уильямс, доктор философии, является заместителем декана по вопросам разнообразия, справедливости и инклюзивности Инженерной школы и профессора электротехники и компьютерных наук Чарльза Э. и Мэри Джейн Спар в Канзасском университете (KU). . Доктор Уильямс также является директором лаборатории гуманоидной инженерии и интеллектуальной робототехники (HEIR) в KU.

© 2018 Эндрю Б. Уильямс

Эта статья была первоначально написана 9 апреля 2018 г. в блоге Wordpress доктора Уильямса, drandrewspeaks.wordpress.com/blog.