Мысли о том, как контролировать повествование и безопасно продвигать ИИ вперед

Во время просмотра нового фильма «Оппенгеймер» я размышлял о том, как появление атомной бомбы навсегда изменило мир и как это похоже на появление искусственного интеллекта. Неуверенность в том, как эта технология будет использоваться, разрушительный потенциал высвобождения мощной силы в мире, последствия неограниченных исследований — все это можно сравнить с текущими исследованиями в области ИИ.

Сейчас мы столкнулись с третьим экзистенциальным кризисом (в том числе с изменением климата), который сильно изменит то, как и почему мы работаем, над чем мы работаем и для кого мы работаем. Это не кризис, который убьет жизни, однако он может полностью положить конец карьере. Инженеры, художники, математики, писатели, дизайнеры — все это области, которые в настоящее время затронуты или будут затронуты в ближайшем будущем. Если наш курс не изменится, и мы не будем ограничивать то, как мы используем или почему мы используем эту технологию, это может означать катастрофу для нашего общества.

… все более некритическое отношение к нему в различных узких контекстах означает постепенное разрушение некоторых из наиболее важных навыков человека. Алгоритмы уже подрывают способность людей выносить суждения, получать удовольствие от случайных встреч и оттачивать критическое мышление. — ИИ представляет собой экзистенциальную угрозу — просто не так, как вы думаете, Scientific American

Есть путь вперед через эту сложную (и откровенно ужасающую) ситуацию, в которой мы оказались. Как Оппенгеймер выступал за регулирование ядерного оружия, так и мы должны регулировать разработку и использование ИИ в нашем обществе. В противном случае мы столкнемся с большей нестабильностью, и люди неизбежно пострадают.

Использование ИИ как инструмента, а не оружия

По мере развития технологии искусственного интеллекта мы должны помнить, что эта технология не является заменой человеческой изобретательности, а скорее тем, что мы можем использовать в качестве инструмента для повышения производительности. ИИ — это не то, чего следует бояться, точно так же, как ядерная энергия (если все сделано правильно) помогает человечеству производить чистую и не загрязняющую окружающую среду энергию.

Эти недавние достижения в области искусственного интеллекта несомненно откроют период лишений и экономических проблем для тех, чья работа напрямую затронута и кому трудно адаптироваться[…] Поступательное движение технологий будет продолжаться, и мы должны использовать новые возможности на благо общества. — ChatGPT и как ИИ разрушает отрасли, Harvard Business Review

Прогнозирование и предотвращение рисков

Использование ИИ для прогнозирования и предотвращения рисков — отличный вариант использования этих моделей, и мы должны продолжать его развивать. Исследователи из Гарвардской медицинской школы разработали модель, которая может прогнозировать риск развития рака поджелудочной железы. Именно такие инструменты нужны человечеству. Точно так же, как ядерное деление может помочь врачам заглянуть в тело с помощью рентгеновских лучей, ИИ может помочь предсказать болезни задолго до появления симптомов.

Другой вариант использования ИИ может помочь человечеству в сфере разведки угроз и обнаружения утечек данных. Анализ больших наборов данных — это один из аспектов использования модели ИИ, и выводы из данных можно использовать для реагирования на определенные шаблоны данных.

ИИ способен делать выводы, распознавать закономерности и выполнять упреждающие действия от имени пользователя, расширяя наши возможности по защите от онлайн-угроз. Автоматизируя реагирование на инциденты, оптимизируя поиск угроз и анализируя большие объемы данных, ИИ может помочь улучшить кибербезопасность. — Как искусственный интеллект разрушает и меняет ландшафт кибербезопасности, Forbes

Пример эволюции

В моей отрасли, разработке программного обеспечения, теперь есть плагины, которые позволяют пользователям генерировать и автозаполнять код, что позволяет быстрее разрабатывать новые приложения. Такие инструменты полезны и позволяют разработчикам сосредоточить свое время на более важных задачах, таких как развертывание, масштабируемость, архитектура, а не на эзотерических задачах, таких как алгоритмы сортировки и манипулирование данными. Я экспериментировал с использованием письменных подсказок для вывода небольших программ, используя ChatGPT OpenAI, однако их мощности достаточно только для выполнения около 80% работы. Остальные 20% — это прочесывание кода, исправление ошибок и, как правило, корректная работа программы.

Что происходит, когда модель ИИ достаточно опытна, чтобы принять неоднозначное приглашение и правильно вывести программу? Инженеры-программисты перестанут существовать? Я считаю, что ответ отрицательный, потому что нам все равно потребуются обученные инженеры, чтобы расшифровать вывод. Кроме того, они будут знать, как ввести подсказку, что приведет к чему-то полезному. Это будет отличное поле для людей, чтобы начать учиться, так называемого «инженера-оператора». В ближайшие годы возникнет много новых областей исследований, и автоматизация станет центром нашей работы.

Даже когда ИИ находится в состоянии самодостаточности, всегда должны быть люди, контролирующие ситуацию на случай какого-либо сбоя. Независимо от того, насколько устойчивой к ошибкам мы можем сделать систему, всегда будет какая-то деградация или человеческая ошибка, как это было, когда взорвался Чернобыльский реактор № 4. Кому-то нужно будет контролировать ситуацию и знать, как реагировать, когда что-то не работает.

Укрепление доверия к системе

Чтобы двигаться вперед с этими технологиями, мы должны построить какое-то доверие с системами. DARPA выступило с инициативой по исследованию этой возможности — программой Машинное обучение с учетом компетенций. Это хороший шаг вперед, даже если речь идет о вооруженных силах, поскольку мы видели гуманитарные программы, исходящие от DARPA.

Однако это исследование должно сопровождаться оговоркой, поскольку DARPA — это передовая программа исследований оружия. Их программы подарили миру много хороших вещей, включая Интернет, GPS и компьютерную мышь, но технология ИИ, разработанная DARPA, имеет явную вероятность того, что она окажется в оружии, используемом в военное время.

Поскольку уже существует структура с правилами обращения с оружием в военное время (см. «Женевские конвенции»), мы как общество должны настаивать на правилах, касающихся ИИ и его использования в оружии. Мои мысли здесь обращаются к сериалу «Черное зеркало», а именно к 3 сезону, 5 серии — «Мужчины против огня». В эпизоде ​​ИИ используется для замены лиц людей изуродованными лицами, а солдаты охотятся и убивают тех, у кого изуродованные лица. Очевидно, что это немного притянуто за уши, учитывая, что нейронные имплантаты далеки от того, чтобы стать мейнстримом, но, тем не менее, пугающая возможность.

Другой пример, немного более реалистичный, это автономные системы вооружения, которые используют ИИ для определения того, стрелять или нет. Есть ряд причин, по которым автономное оружие может быть хорошим, однако, если оно не строго регулируется, оно может быть действительно очень плохим. В частности, раннее внедрение деформированных систем вооружений может привести к гибели невинных людей.

Технологии, лежащие в основе некоторых из этих оружейных систем, несовершенны и подвержены ошибкам, и мало ясности в том, как эти системы функционируют и принимают решения. Некоторое из этих вооружений неизменно поражает не те цели, а конкурентное давление может привести к развертыванию большего количества систем, которые не готовы к бою. — Оружие с искусственным интеллектом нуждается в лучшем регулировании, Scientific American

Регулирование крайне необходимо, и мы должны настаивать на регулировании.

Будущее ИИ

Основываясь на законе Мура, который представляет собой закон удвоения, связанный с информатикой, будущее ИИ выглядит не только следующим, но и превосходящим этот закон. Полная реализация искусственного общего интеллекта (AGI) — лишь вопрос времени. Это тревожно, но риски можно снизить. Опять же, благодаря разумному и широкому регулированию мы можем управлять эффектами ИИ.

Общий интеллект очень мощен, и как только мы вообще сможем его создать, искусственный общий интеллект (AGI) с поддержкой STEM, вероятно, сразу же (или очень быстро) значительно превзойдет человеческий интеллект. - Основная причина, по которой я ожидаю краха AGI, меньше неправильного

Грядет появление ИИ, а мы к нему не готовы. Мы вступаем в неизвестность, как вступали в неизвестность ученые, работавшие над Манхэттенским проектом. (См.: XKCD #809)

Выводы

Точно так же, как ядерная бомба привела к исследованию того, как можно использовать ядерный расщепляющийся материал, чтобы помочь человечеству, ИИ следует не бояться, а использовать. В результате этого исследования могут появиться важные инструменты, которые помогут человечеству двигаться вперед. При надлежащем регулировании и исследованиях мы можем использовать эту новую технологию и шагнуть в светлое будущее. Без руководящих указаний мы вступаем в неизвестность и рискуем социальной нестабильностью. Мы должны действовать осторожно, иначе мы столкнемся с третьим экзистенциальным кризисом.

Примечания:

  • Эта статья — мое мнение, основанное на доказательствах, полученных в течение многих лет наблюдения за тем, как ИИ развивается до того, чем он является сейчас.
  • Эта статья не была написана с использованием ChatGPT или любого другого инструмента с искусственным интеллектом; Я сам все писал и исследовал.
  • Я не против исследований ИИ. Я верю, что эти инструменты помогут вывести человечество на новый уровень.