Что такое устойчивый искусственный интеллект?

Изучение различных способов подхода к устойчивости в области искусственного интеллекта

Понятия «устойчивость» и «искусственный интеллект» могут оказаться трудными. Я не верю, что смогу описать два невероятно сложных термина в одной статье. Скорее я думаю об этом как о кратком исследовании различных способов определения устойчивого искусственного интеллекта (ИИ). Если у вас есть комментарии или мысли, мы будем очень признательны.

Эти мысли приходят после обсуждения Устойчивого ИИ, которое я модерировал 21 мая в рамках моей должности в Норвежском консорциуме исследований в области искусственного интеллекта. Я также хотел немного подумать перед Конференцией по устойчивому искусственному интеллекту, которая состоится 15-17 июня в Боннском университете.

Фьючерсы, цели и индикаторы

Относящийся к устойчивому развитию и, как сказано в отчете Наше общее будущее, также известном как Отчет Брундтланд, был опубликован в октябре 1987 г .:

«Человечество способно сделать развитие устойчивым, чтобы гарантировать, что оно отвечает потребностям настоящего, не ставя под угрозу способность будущих поколений удовлетворять свои собственные потребности. Концепция устойчивого развития действительно подразумевает ограничения, а не абсолютные ограничения, но ограничения, налагаемые нынешним состоянием технологий и социальной организации на ресурсы окружающей среды и способностью биосферы поглощать последствия деятельности человека ».

Это постоянно меняющееся широкое определение устойчивости из-за акцента на «настоящее», «будущее» и «потребности». Таким образом, устойчивость в этой структуре постоянно пересматривается и подвергается сомнению.

Эти представления в некоторой степени основывались на прогнозировании на основе экономических ресурсов в отчете «Пределы роста»:

«Пределы роста» (LTG) - это отчет 1972 года об экспоненциальном экономическом росте и росте населения с ограниченным запасом ресурсов, изученный с помощью компьютерного моделирования ».

До этого были размышления, в том числе, но, конечно, не ограничиваясь:

  • Эссе 1662 года Сильва Джона Эвелин (1620–1706) об управлении природными ресурсами (в частности, лесным хозяйством в данном случае) .
  • 1713 г. Ганс Карл фон Карловиц (1645–1714) с Sylvicultura Economics (разработка концепции управления лесами для получения устойчивой урожайности).
  • 1949 г. Альманах округа Сэнд Альдо Леопольда (1884–1948) с его земельной этикой (экологической земельной этикой, которая отвергает строго ориентированные на человека взгляды на окружающую среду и фокусируется на сохранении здоровых и здоровых людей). самообновляющиеся экосистемы).
  • 1962 г. Тихая весна Рэйчел Карсон (1907–1964), о взаимосвязи между экономическим ростом и ухудшением состояния окружающей среды.
  • Эссе 1966 года Экономика приближающегося космического корабля Земля Кеннета Э. Боулдинга (1910–1993) с линиями между экономической и экологической системами при ограниченных ресурсах.
  • Статья 1968 года Гаррета Хардина (1915–2003) Трагедия общин, популяризировавшая термин трагедия общин (системы ресурсов с открытым доступом могут рухнуть из-за чрезмерного использования).

Таким образом, хотя Пределы роста (1972) и Наше общее будущее (1987) популяризировали устойчивость, ранее этим линиям следовали нити мыслей.

Позже работа по созыву конференций под руководством ООН сыграла свою роль в разработке рамок для практического воплощения в жизнь обязательств со стороны стран.

  • Конференция 1992 года по окружающей среде и развитию (Встреча на высшем уровне "Планета Земля") с принятием Рио-де-Жанейрской декларации по окружающей среде и развитию состояла из 27 принципов, предназначенных для руководства странами в будущем устойчивом развитии. Его подписали более 175 стран.
  • На Всемирной встрече на высшем уровне по социальному развитию 1995 года была принята Копенгагенская декларация социального развития. В итоговом отчете за 1996 г., «Формируя 21 век», некоторые из этих обязательств были преобразованы в шесть «Целей международного развития», за которыми можно было следить.

По содержанию и форме они были аналогичны конечным Целям развития тысячелетия (ЦРТ). ЦРТ были установлены в 2000 году с целями на 2015 год после принятия Декларации тысячелетия Организации Объединенных Наций. Декларация тысячелетия состоит из восьми глав и основных целей, принятых 189 мировыми лидерами во время Саммита тысячелетия с 6 по 8 сентября 2000 года.

В 2016 году на смену этим ЦРТ пришли Цели устойчивого развития (ЦУР) ООН.

Вы, вероятно, видели цвета и числа вокруг, поскольку они наглядны и часто встречаются в презентациях различных предприятий и правительств:



Важно отметить, что эти 17 целей также имеют индикаторы, детализирующие прогресс в достижении каждой цели.

«Структура глобальных индикаторов включает 231 уникальных индикатора. Обратите внимание, что общее количество показателей, перечисленных в глобальной системе показателей для показателей ЦУР, составляет 247 ».

Попытку отобразить доступные данные можно увидеть в онлайн-трекере ЦУР (сделанном Global Change Data Lab, зарегистрированной благотворительной организацией в Англии и Уэльсе), и он указан на официальном сайте ООН:



В рамках этих показателей Интернет, например, упоминается четыре раза.

Не упоминаются машинное обучение, искусственный интеллект, автоматизация и робототехника.

  • Следует ли включать эти концепции?
  • Если да, то почему они (или только ИИ) должны быть включены?

Я не утверждаю, что ИИ так же важен, как Интернет, хотя верю, что в некоторой степени ИИ может оказывать горизонтальное влияние на различные сектора и области общества. Особенно с недавними примерами, такими как Google’s LaMDA, запущенная в мае 2021 года, система искусственного интеллекта для языка, интегрированная в их поисковый портал, голосовой помощник и рабочее место.

Что, как говорится:

  1. Понятия использования ресурсов и социальных целей в более широком смысле актуальны для области ИИ.
  2. Дальнейшие риски или возможности для устойчивости могут быть рассмотрены в больших или малых системах ИИ.

Конечно, есть много терминов, которые в более широком смысле не фигурируют в целях или показателях, но эти цели по-прежнему актуальны для концептуальных и операционных аспектов, связанных с разработкой и применением ИИ.

Устойчивый ИИ и устойчивость ИИ

Одним из примеров может служить Эйми Ван Винсберг, одна из ведущих конференции по устойчивому ИИ, в ее статье Устойчивый ИИ: ИИ для устойчивости и устойчивости ИИ :

«Я предлагаю определение устойчивого ИИ; Устойчивый ИИ - это движение, способствующее изменению всего жизненного цикла продуктов ИИ (т. Е. Генерации идей, обучения, перенастройки, внедрения, управления) в сторону большей экологической целостности и социальной справедливости ».

Винсберг также утверждает:

«Устойчивость AI сосредоточена на устойчивых источниках данных, источниках питания и инфраструктуре как способе измерения и сокращения выбросов углекислого газа в результате обучения и / или настройка алгоритма. Решение этих проблем составляет основу обеспечения устойчивости ИИ для окружающей среды ».

В своей статье она разделяет это на устойчивость системы и применение ИИ в более устойчивых целях:

«Короче говоря, ИИ, который предлагается для управления нашим обществом, не может за счет своего развития и использования сделать наше общество неустойчивым»

Винсберг приводит доводы в пользу трех действий, которые мы должны предпринять, я их немного сократил, но полностью их можно прочитать в ее статье:

  1. «Для этого, во-первых, ИИ должен быть концептуализирован как социальный эксперимент, проводимый над обществом… затем необходимо ввести этические меры безопасности для защиты людей и планеты».
  2. «… нам нужны устойчивые целевые группы ИИ в правительстве, которые активно занимаются поиском мнений экспертов о воздействии ИИ на окружающую среду. Таким образом, можно будет реализовать соответствующую политику по сокращению выбросов и энергопотребления ».
  3. «…« Система соразмерности »для оценки того, пропорционально ли обучение или настройка модели ИИ для конкретной задачи углеродному следу и общему воздействию на окружающую среду этого обучения и / или настройки».

Этот подход Wynsberghe создает двойственность устойчивых систем искусственного интеллекта и продуманную цель применения искусственного интеллекта. Оба важны, и они могут быть полезны при построении подхода к устойчивому ИИ как концепции.

В качестве простой двухточечной эвристики для сложной проблемы устойчивый ИИ:

  1. Устойчивость самой системы ИИ на протяжении всего ее жизненного цикла.
  2. Сфера применения ИИ и его вклад в более широкую повестку дня устойчивого развития.

Есть и другие способы приблизиться к устойчивости.

Власть и неравенство

Важно учитывать власть и неравенство, поскольку они в какой-то степени конфигурируются в рамках ЦУР. Эти темы часто забываются или игнорируются, когда искусственный интеллект обсуждается вместе с устойчивостью (хотя часто упоминается «предвзятость»).

Цель в области устойчивого развития № 10: сокращение неравенства, какую роль в этом отношении играют приложения ИИ?

Я считаю, что Оружие математического разрушения Кэти О’Брайен будет фигурировать в этой дискуссии, и это вызвало широкий круг вопросов.

Недавний фильм Закодированное предубеждение наряду с исследованиями и пропагандой, проведенными Джой Буоламвини, Тимнитом Гебру, Деб Раджи и Таваной Петти о неравенстве (в форме предвзятости) в системах ИИ, особенно в распознавании лиц, имеет большое значение.



Лично я считаю, что еще одно интересное подробное обсуждение этого вопроса можно найти в книге Атлас ИИ: власть, политика и планетарные затраты на искусственный интеллект. Потому что есть большие вопросы как о системе ресурсов, построенной на основе искусственного интеллекта, так и о предоставлении услуг в различных политических контекстах.

Это также касается рабочей силы и полезных ископаемых в пределах планет.

Власть может до некоторой степени создавать рамки для того, какие действия мы предпринимаем. Это не новость, но ИИ стал значительной частью процессов принятия решений с большими группами населения / гражданами / пользователями в зависимости от того, кого вы спрашиваете.

Другой аспект - эффективность языковых моделей, а большие модели, обученные на огромных данных, - это сложные вычислительные потребности и потенциальные воздействия на общество. Компании, НПО и правительства пытаются справиться с этим, нанимая различные группы по этике ИИ. Тем не менее, как показывает увольнение двух соруководителей группы по этике ИИ в Google Тимнит Гебру и Маргарет Митчелл перед запуском новой большой языковой модели, это отнюдь не легкие отношения.



Команды по этике ИИ часто могут иметь узкую компетенцию, и устойчивость не обязательно обсуждается в этих контекстах. Действия могут варьироваться от крупных агрегированных философских понятий различной морали до оспаривания критериев в наборах данных машинного обучения. Я считаю, что отчасти этика ИИ может рассматриваться как способ решения сложных этических проблем при применении услуг или продуктов. Иногда кажется, что кодексы поведения или принципы созданы как способ отстаивать моральный надзор в компании.

Этика ИИ может быть либо / или техническим упражнением, выполняемым с разработчиками по текущему выпуску прикладного ИИ, либо упреждающим упражнением на основе сценария, которое может помочь выявить проблемы в применении ИИ.

Также может быть важно оспаривать выводы в ИИ (решения, сформированные на основе данных или структур). Решения часто экстраполируются, так что применение к неизвестной ситуации осуществляется исходя из предположения, что существующие тенденции или данные будут продолжаться, или аналогичные методы будут применимы к данной ситуации.

Экстраполяция может быть трудной для социальных взаимодействий, хотя и не невозможной, и в этом заключается проблема в более широком смысле для общества (политическое влияние или пропаганда + ИИ - один из ярких примеров).

Данные по-прежнему могут быть важны для выявления тенденций, и мы можем сделать вывод, что необходимо принять меры для повышения устойчивости. Одна из часто обсуждаемых областей, которая необходима для поддержания жизни на планете Земля, - это решение неотложного климатического кризиса.

Климатический кризис и вычислительная эффективность

Часто можно услышать выбросы углерода и компромисс, упомянутый Штрубеллом, Ганешем и МакКаллумом. Это поставило распространенный вопрос, который повторяется в сообществе ИИ, когда возникают дискуссии о климате: сколько углерода выделяет обучение модели?

Есть аргументы, что ИИ может помочь в борьбе с климатическим кризисом. В последнее время появилось сообщество в области ИИ, сосредоточенное именно на этом вопросе:



В этом смысле речь идет о компромиссах при применении в области ИИ, о которых упоминал Винсберг, как о соображениях системы жизненного цикла, так и о приложениях в области ИИ.

Если мы вернемся к устойчивому лесопользованию, я ранее думал о некоторых примерах и о том, как ИИ может быть полезен:



Одна из попыток решить эту проблему заключается в построении моделей по-другому, особенно с использованием более биологических вычислительных систем. Одним из примеров в Норвегии является исследовательская группа NordSTAR:



Более ярким примером может быть стартап Другой мозг, ориентированный на то, что они называют «органическим ИИ», основанный Бруно Мезонье, который ранее основал Aldebaran Robotics, приобретенную SoftBank Robotics в 2012 году:



Как упоминалось на их веб-сайте:

«AnotherBrain создал новый вид искусственного интеллекта под названием Органический ИИ, очень близкий к функционированию человеческого мозга и намного более мощный, чем существующие технологии искусственного интеллекта. Новое поколение искусственного интеллекта для расширения возможностей и приложений. Органический ИИ самообучается, не требует больших данных для обучения, очень экономен в плане энергии и поэтому действительно удобен для человека ».

В этом смысле необходимо учитывать как «бережливость» системы, так и ее применение для решения проблемы климатического кризиса. Кроме того, необходимо подчеркнуть, что дружественный к человеку не обязательно означает дружественный к планете.

Междисциплинарное сотрудничество и образование

Сложные системы требуют переосмысления того, как осуществляется образование и как мы взаимодействуем в обществе. То же самое и с искусственным интеллектом.

Переосмысление систем искусственного интеллекта и приложений искусственного интеллекта может означать широкое понимание гуманитарных наук и общества. Примером финансирования, связанного с этим, является программа WASP-HS в Швеции:



Сомнительно, чтобы у инженеров ИИ было время или ресурсы, чтобы погрузиться в исторические рамки данного контекста, в которых применяются их системы, ни в культурные особенности, ни в сохраняющееся системное неравенство. При этом инженеры ИИ могут быть заинтересованы в этих темах или участвовать в них, но для достижения устойчивости в обществе и природе потребуется как разное образование, так и разноплановое участие разных групп людей.

Если вы количественно оцениваете действия в обществе, означает ли это, что вы можете изменить его к лучшему?

Речь идет об информации и о том, что мы делаем с ней, как люди. Однако это также касается социальных и экологических изменений.

Мы можем накопить почти неограниченное богатство (если измерять его цифрами), чтобы достичь того, что мы желаем, так сказать. Тем не менее, эти большие объемы информации не могут автоматически привести к решениям, которые мы желаем для устойчивого будущего.

Цели, по которым создаются системы в области ИИ, связаны с контекстом различных сообществ. Поскольку это так, это также относится к гражданам и управлению населением в различных областях.

Управление ИИ для устойчивости

Несмотря на то, что при обсуждении ИИ очень часто упоминаются частные компании, государства играют в этом все более заметную роль. С другой стороны, можно действительно сказать, что они были с самого начала разработки ИИ (с военными расходами и финансированием исследований). Следует учитывать взаимодействие между различными частями общества (также упомянутое в ЦУР 16), и при обсуждении ИИ не следует забывать о мире. Экзистенциальный риск - это одна из областей, которая исследуется при обсуждении ИИ. Это не обязательно должна быть ситуация, подобная Терминатору или Скайнету, это может быть просто продвинутый проект ИИ, который имеет непредвиденные последствия в крупном масштабе.

Будь то неправительственные организации, авторитарные режимы, граждане, неформальность, демократия и так далее. Управление в сфере ИИ - это вопрос государства:

  1. Как государство инвестирует в ИИ?
  2. Как регион инвестирует в ИИ?
  3. Кто управляет ИИ в государстве?
  4. В какие аппликационные поверхности вкладываются средства?
  5. Как государства участвуют в международных форумах по ИИ?
  6. Как это сказывается на гражданах разных стран?

На эти вопросы нелегко ответить, но я считаю, что они очень важны для устойчивости искусственного интеллекта.

Что выдержано?

  • Равновесие?
  • Человечество?
  • Экология?
  • Общество?

Устойчивое развитие часто рассматривается как действие, уравновешивающее поставленные цели, но оно включает в себя переговоры в значительной степени о взаимоотношениях в нашей общей экосистеме. Я не верю в идеальное равновесие возможностей, однако мы должны стремиться к устойчивости в любом случае.

Это некоторые из моих заметок и мыслей по теме устойчивого ИИ.

Что вы думаете? Как устойчивость и искусственный интеллект связаны друг с другом и какие действия можно предпринять для повышения устойчивости в области искусственного интеллекта?

Если у вас есть комментарии или мысли, мы будем очень признательны. Не стесняйтесь комментировать эту статью или твитнуть, чтобы сказать мне, что вы думаете.

Это # 1000daysofAI, и вы читаете статью 504. Я пишу одну новую статью об искусственном интеллекте или связанную с ним в течение 1000 дней. Первые 500 дней я писал статью каждый день, а теперь с 500 до 1000 я пишу в другом темпе.