Искусственный интеллект для Стюарта Рассела и Питера Норвига, авторов книги Artificial Intelligence: A Modern Approach, Global Edition, означает «область исследований, в которой интеллектуальные агенты разрабатываются и создаются». В каком смысле? Каким может быть этимологическое значение термина? «Агент» — это «все, что может продемонстрировать способность воспринимать собственное окружение с помощью датчиков и воздействовать на него с помощью исполнительных механизмов»; «разумный» определяет «рационального» агента, который «для каждой возможной последовательности восприятий способен выбрать среди различных возможных ответных действий то, которое, как предполагается, максимизирует меру его производительности. , на основе данных, полученных из последовательности одних и тех же восприятий, и формы знания, включенной в него». знание», с помощью которого будут измеряться действия, так что простое применение данных, согласно вставленной логике, заменяется видением, рассматривающим этику как дополнение к операции! Не случайно в американские уголовные суды была подана апелляция после осуждения за рецидив в отношении чернокожего заключенного, потому что система отдавала предпочтение белым, а не афроамериканским этническим группам; чтобы не игнорировать всю систему, они усилили концепцию тесного сотрудничества между человеческим элементом, способным к суждениям, и технологическим элементом; в случаях гендерных различий или этнического и социального происхождения, которые могут привести к различной предвзятости оценки (определяемой Википедией как «форма искажения оценки, вызванная предубеждением»), необходимо, чтобы данные, на которых основывается Искусственный интеллект , не побуждайте последних к оценкам или действиям, которые различаются в зависимости от категории населения.
Таким образом, с этической точки зрения искусственный интеллект создает проблемы прозрачности и открытости, поскольку часто это невозможно чтобы определить, какие данные, на которых он основывает свое функционирование, или архитектура его алгоритмов, покрыты промышленной тайной.
Неслучайно 16 февраля 2017 года правительство Южной Кореи распорядилось Министерства и правительственные учреждения Южной Кореи должны представить новые правовые стандарты, чтобы определить правовой статус, обязанности и этические нормы отраслей, участвующих в производстве искусственного интеллекта. исследования.
Основная цель всех правительств, более или менее развитых, состоит в том, чтобы начать думать о том, как использовать ИИ, но также и, прежде всего, как его регулировать, чтобы он не управлял нами, а стал нашей помощью в управление повседневной жизнью. В конце 2017 года представители правительства США представили законопроект «Основное понимание закона об удобстве использования и реалистичной эволюции искусственного интеллекта от 2017 года», направленный на продвижение ИИ и управление им.

S.A.R.I., аббревиатура от Automatic Image Recognition System, представляет собой новую систему, доступную для полиции штата для противодействия преступной деятельности; Используя систему AFIS, автоматизированную систему идентификации отпечатков пальцев, которая собирает отпечатки пальцев, личные данные, фотографии и биометрические записи подследственных, правоохранительные органы могут рассчитывать на систему идентификации с базой данных более 10 миллион данных; таким образом, лица, виновные в совершении преступления, могут быть выявлены быстрее и эффективнее.
В Соединенных Штатах используется другая система, COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), которая алгоритм, используемый судьями для расчета вероятности рецидива в течение двух лет после совершения преступления.

Это два конкретных и недавних примера искусственного интеллекта.

DARPA (Агентство перспективных оборонных исследовательских проектов), агентство технологических исследований Пентагона США, объявило в сентябре 2018 года об инвестициях в размере двух миллиардов долларов на разработку новых решений в области искусственного интеллекта. Китай не остался в стороне и содействовал инвестициям в размере более двух миллиардов долларов, чтобы стимулировать развитие новых технологий. от самих себя ведется борьба не только на экономическом фронте, но и на технологическом.

Дэвид Вайнбергер, американский мыслитель и философ, пишет: «Мы все должны быть обеспокоены тем, что системы искусственного интеллекта (ИИ), основанные на «машинном обучении», которым мы доверяем решения — от кого их принимать — могут совершать серьезные ошибки, нанося вред отдельным людям. и целые категории людей. Иногда ошибки относительно безобидны.[…] Это разрушительно, когда в США ИИ рекомендует держать чернокожих мужчин в тюрьме дольше, чем белых, просто из-за их расы.
Что в старом фильме 1983 года , Военные игры, казавшиеся неопределенным и далеким будущим, есть конкретная реальность нашего времени, с которой каждому рано или поздно придется мериться; способность компьютера учиться на своих ошибках и исправлять себя, хотя она и представляет собой зарю новой эры, не следует недооценивать, ее следует понимать, но «вежливо», чтобы не подчиняться ей.

Все права защищены

Рафаэлла Агемо, юрист

Искусственный интеллект и машинное обучение