Книга Ника Бострома Сверхразум служит прелюдией к предупреждению об опасностях, которые может вызвать ИИ. Потенциальная угроза человечеству, Бостром решительно утверждает, что чрезмерное увлечение ИИ и чрезмерная интеграция власти в роботов могут привести к распаду человечества. Обладая высочайшей мощностью, машины не удержатся от выключения даже при необходимости. Это страшно, мягко говоря! Но что это за компонент, который может заставить эту почти полностью защищенную искусственную технологию пойти так неправильно и сходить с ума……. Этика! Да, роботов и машины можно обучить и интегрировать множество алгоритмов, связанных с задачами, но не существует алгоритма этики и эмпатии. Отношения, которые разделяют и заботятся между каждым живым существом в биосфере, — это биоэтика, и это единственный магический элемент, который отделяет человеческий интеллект от машинного.

С нашими обычными повседневными задачами и обязанностями бывают случаи, когда нам приходится принимать импровизированные решения, которые приводят к изменению плана. Теперь потребность в этом принятии решений во многом зависит от ситуации, а способность принимать такие спонтанные решения зависит от коэффициента эмпатии людей, присутствующих в таких ситуациях. Что, если вместо человека будут править роботы; в какой бы ситуации они не нуждались, они выполнят задачу именно так, как она установлена. У них нет возможности идти в обход запланированных программ. Это ситуационное выполнение определенных задач может привести к хаосу, но кого в этом винить…. машины, их создатели или люди, которые слишком на них полагаются.

Этические принципы для заслуживающего доверия ИИ, установленные в 2019 году группой экспертов высокого уровня по ИИ Европейского союза, рекомендуют подотчетную, объяснимую и беспристрастную систему ИИ. Особое внимание уделяется трем элементам:

Законность — соблюдение всех применимых законов и правил.

Этичный — соблюдение этических принципов и ценностей.

Надежный – адаптивный, надежный, честный и заслуживающий доверия с технической точки зрения, но с учетом социальной среды.

Также были объявлены определенные предпосылки для эффективного применения этих ключевых элементов, такие как: система ИИ должна находиться под наблюдением операторов, всегда должно быть разрешено вмешательство человека для предотвращения любых несоответствий, которых можно избежать, система должна быть безопасной и точной, услуги, получаемые от эта технология должна быть доступна всем, независимо от возраста, пола или пола, данные и алгоритмы должны быть прослеживаемыми и редактируемыми людьми… и так далее.

Эти рекомендации подчеркивают необходимость включения «человеческого фактора» в систему ИИ.

В качестве примера возьмем автомобильную аварию Tesla во Флориде. Несчастная ночь унесла жизнь юной студентки колледжа, причем не по ее вине! Удивительно, но водитель автомобиля, который врезался в потерпевшего, не виноват. Главным виновником стала интегрированная технология беспилотных автомобилей с искусственным интеллектом. (https://www.nytimes.com/2021/08/17/business/tesla-autopilot-accident.html)

Технологии развиваются, с их помощью развивается и мир вокруг нас; но где-то посреди всего этого мы теряем равновесие. Окружающая нас среда создана природой, но постепенно она становится слишком рукотворной и искусственной. ИИ оказался полезным для развития общества в целом, но интеграция этой технологии во все возможные аспекты нашей повседневной жизни потенциально может нарушить естественную среду человеческого цикла. Для поддержания этого баланса крайне важно внедрить в технологии компоненты эмпатии и подотчетности. Или, может быть, просто решить не слишком полагаться и зависеть от искусственных технологий во всех областях человеческой деятельности, тем самым поддерживая и поддерживая эмпатию людей везде, где это необходимо.

Согласны ли вы с моей точкой зрения на ИИ? Хотелось бы прочитать ваше мнение в разделе комментариев ниже!

Библиография :-

Ник Бостром: Сверхразум: пути, опасности, стратегии. Кейт Мэнсфилд: Oxford University Press; 2014

Европейская комиссия по этическим принципам надежного искусственного интеллекта. Экспертная группа высокого уровня по ИИ представила это руководство, в котором указаны три требования: законность, этичность и надежность

Рори СиДжей. Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству BBC News Wikipedia, бесплатная энциклопедия искусственного интеллекта, 2014 г.

https://www.nytimes.com/2021/08/17/business/tesla-autopilot-accident.html