Я недавно говорил на эту тему ​​на XV Конгрессе Ассоциации Луки Косциони о свободе исследований (вы можете прочитать переведенную стенограмму здесь).

Я полностью согласен с параллелью между нынешним ажиотажем вокруг ИИ и лоббированием автомобильной промышленности в начале 1900-х.
Они очень похожи, что доказала смерть Элейн Херцберг: автомобиль сломался не для того, чтобы предотвратить беспорядочное поведение, которое могло бы вызвать автомобильную болезнь у Uber. клиентов.

И действительно, в своей попытке лоббировать отрасль ваша статья не учитывает такие хорошо известные проблемы, как парадокс автоматизации.

Единственный способ, которым беспилотные автомобили могут быть безопасными, — это выделенные дороги, изолированные от человеческого движения и поддерживаемые надлежащими дорожными датчиками и диспетчерскими вышками.

Язык ИИ полностью сломан, и он использует невежество политиков и журналистов, чтобы возлагать большие надежды на технологию, которая:

  1. все еще довольно примитивен, он выглядит умным, только если вы не совсем понимаете, как он работает (как выразился Артур Кларк)
  2. совсем не умный, в основном это статистика, управляющая интерактивными симуляциями.
  3. обречено на ускорение накопления богатства и власти в пользу богатых с высокими социальными издержками и серьезными внешними эффектами.

Теперь все эти методы действительно можно использовать для улучшения жизни людей, но только если они будут работать по крайней мере в соответствии с двумя очень простыми принципами:

  1. Полная прозрачность, когда эти методы применяются к людям или к данным людей. «Черные ящики» и «серые ящики» должны быть запрещены для человеческих данных или решений, связанных с людьми.
  2. Полная ответственность: всякий раз, когда автономная машина или ИИ причиняют вред, всегда должен быть хотя бы один человек, который несет ответственность за такой вред, как если бы он причинил его напрямую.

Это означает, например, что если человека посадили в тюрьму из-за оценки программного обеспечения, которое затем было обнаружено с ошибками (по какой-либо ошибке), компания должна возместить такому человеку деньги за каждый день, проведенный в тюрьме, и повторный процесс. с нуля.

Но это также означает, что если робот случайно убьет человека из-за ошибки, то за убийство должны быть привлечены генеральный директор и совет директоров компании.

Мы не можем позволить «искусственному интеллекту» работать в качестве законных представителей ответственности людей, если мы хотим сохранить правовое государство, равное для всех.

Обучать этике машины все равно, что обучать сексу презервативы.
В первую очередь мы должны сосредоточиться на людях.