Это проницательное и хорошо написанное произведение. Отличная работа.
Относительно законов Наделла:
- Я полностью согласен с вашим изложением «законов» Наделлы. Циник может сказать, что это всего лишь список положительных эффектов, которые он хотел бы видеть в результате появления новых технологий. Я в основном согласен — этот список слишком общий.
- Я особенно согласен с вашей точкой зрения о неявной предвзятости в наших данных. Если SE будут учиться на наших данных, они обязательно узнают о предвзятости.
Что касается вашего списка и мыслей о правах для SE:
- Вы красноречиво выступаете за наделение SE значительными правами. В какой-то момент я начал задаваться вопросом: чем именно Se отличается от человека в этом отношении? Если мы предоставляем им права, чтобы не оскорблять их, разве мы не должны предоставить им *все* права человека? (Несколько романов/фильмов также затрагивают этот аспект)
- В вашем третьем законе есть оговорка о том, что конфиденциальность предоставляется, если это не угрожает другим SE. Должен ли СЭ вмешиваться силой, чтобы предотвратить самоубийство психически больного человека? Соответствует ли иерархия опасности/вреда простому физическому_вреду › эмоциональному_вреду? Можно ли ожидать, что HALSE будет рассуждать с достаточной абстракцией об этой ситуации, чтобы иметь возможность провести осознанное различие? Вы упомянули фильмы ужасов. Обычный сюжет заключается в том, что ИИ причиняет вред людям, веря, что это помогает им в долгосрочной перспективе / в целом.
- Мне нравится идея наблюдения ИИ за другими ИИ. Интуитивно их нужно было бы «обучить» на разных «наборах данных».
- Как наказать машину? Наказание обычно оформляется как лишение чего-либо желаемого или как умышленное навязывание чего-либо нежелательного. Чего хочет машина? Чего они не желают?
Эти вопросы трудны до невозможности, и ни у кого нет ответов. Но они пришли мне в голову…
Некоторые из моих личных мнений:
- Я думаю, что 2040 год для разума взрослого человека — это слишком рано. Один из моих преподавателей в аспирантуре любил говорить: «Люди склонны полностью недооценивать то, что возможно через 1–2 года, и полностью переоценивать то, что возможно через 10–20 лет».
- Ваши идеи доходят до философских идей о правах и т. д. Я считаю, что компьютер с таким же количеством нейронов, как у человека, все равно не вел бы себя так же. Есть что-то в людях, что нельзя смоделировать. Это то, ИМО, что гарантирует соблюдение прав.
- Если у нас действительно есть основания опасаться, что СЭ решат «бунтовать» или причинить вред людям, то нам следует с самого начала пересмотреть наш подход.
- Я согласен с вашим призывом к упреждающему регулированию, а также с вашим предсказанием пороговых возможностей (полный AGI и т. д.), достижение которых было бы конкурентно выгодным.