Ответственный ИИ: глобальная перспектива

На прошлой неделе я выступал на первом мероприятии Responsible AI в Мельбурне. Идея мероприятия состоит в том, чтобы собрать вместе людей из разных слоев общества для обсуждения важных вопросов, связанных с ИИ / МИ, таких как доверие, прозрачность, справедливость и этика. Когда зарегистрировалось более 150 человек и пришло 100 человек, я был поражен уровнем интереса и страсти к этой теме. Приятно было видеть людей с таким широким кругом знаний, включая философию, право, технологии и этику, а также различные точки зрения, которые они привносят в беседу.

Цель моего выступления заключалась в том, чтобы осветить некоторые фантастические работы, проделываемые во всем мире по теме «Ответственный искусственный интеллект», и заставить аудиторию задуматься о том, какой вклад мы в Австралии можем внести.

Ответственных AI-игроков можно в общих чертах разделить на следующие категории:

  1. Правительства
  2. Государственное, частное, академическое партнерство
  3. Отдельные компании

1. Правительства

Ряд правительств объявляют о стратегиях и инвестициях в ИИ. Из них я выделил троих, которые сделали такие соображения ответственного ИИ, как этика, доверие, прозрачность и справедливость, во главу угла своей стратегии.

UK

В 2017 году британское правительство опубликовало обзор индустрии искусственного интеллекта Великобритании. По итогам обзора британское правительство выделило 300 миллионов фунтов стерлингов на исследования в области ИИ, включая планы по созданию нового центра этики данных и инноваций стоимостью 9 миллионов фунтов стерлингов для изучения возможных структурных изменений рабочих мест, конфиденциальности и безопасности данных.

«Правительство создаст новый Центр этики данных и инноваций, чтобы обеспечить и обеспечить безопасные, этичные и новаторские инновации в области искусственного интеллекта и технологий, управляемых данными. Этот первый в мире консультативный орган будет работать с правительством, регулирующими органами и отраслью, чтобы заложить основы для внедрения ИИ »

Осенний бюджет Великобритании, 2017 г.

Дополнительная литература

Кембриджский университет, Центр изучения экзистенциального риска: https://www.cser.ac.uk/research/risks-from-artificial-intelligence/

Центр изучения искусственного интеллекта Леверхульма: http://lcfi.ac.uk

Институт Алана Тьюринга: https://www.turing.ac.uk/data-ethics/

Палата лордов, Комитет по искусственному интеллекту, AI в Великобритании: готов и способен? Https://publications.par Parliament.uk/pa/ld201719/ldselect/ldai/100/10002.htm

Франция

В марте 2018 года президент Франции представил свое видение и стратегию по превращению Франции в лидера в области искусственного интеллекта »под названием ИИ для человечества . Стратегия состоит из трех столпов, один из которых - Создание этических рамок. Правительство Франции выделило к 2022 году 1,5 млрд евро на реализацию стратегии ИИ для человечества.

«Президент стремится к тому, чтобы прозрачность и добросовестное использование занимали центральное место в алгоритмах…. Эти два приоритета - прозрачность и добросовестное использование - станут предметом образовательных программ, чтобы наши будущие граждане были готовы к этим преобразованиям ».

AI For Humanity, март 2018 г.

Дальнейшее чтение

Полный отчет доступен на французском и английском языках здесь:
https://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf

Канада

В 2017 году Canda анонсировала Стратегию панканадской искусственной разведки. Разработкой стратегии будет руководить Канадский институт перспективных исследований (CIFAR) с инвестициями в размере 125 млн канадских долларов. Одна из четырех его целей - развивать мировое лидерство в вопросах экономических, этических, политических и юридических последствий достижений в области искусственного интеллекта.

«Канада и Франция хотят продвигать концепцию искусственного интеллекта, ориентированного на человека, на основе прав человека, интеграции, разнообразия, инноваций и экономического роста. Широкое использование этих новых технологий окажет глубокое влияние на повседневную жизнь и социальный прогресс, создавая как возможности, так и проблемы »

Заявление Канады и Франции об искусственном интеллекте, июнь 2018 г.

Дальнейшее чтение

Ответственный AI в правительстве Канады: Ответственный искусственный интеллект в правительстве Канады

Монреальская декларация об ответственном искусственном интеллекте: https://www.montrealdeclaration-responsibleai.com/the-declaration

CIFAR AI & Society: https://www.cifar.ca/assets/artificial-intelligence-society/

2. Государственное, частное и академическое партнерство

AI Now Institute Междисциплинарный исследовательский центр, посвященный пониманию социальных последствий искусственного интеллекта

AI для всех Некоммерческая организация, работающая над увеличением разнообразия и вовлеченности в искусственный интеллект. Мы создаем конвейеры для недостаточно представленных талантов с помощью образовательных и наставнических программ в США и Канаде, которые дают учащимся старших классов возможность познакомиться с ИИ на ранних этапах жизни на благо общества

Партнерство в области ИИ Многосторонняя организация, объединяющая ученых, исследователей, организации гражданского общества, компании, создающие и использующие технологию ИИ, и другие группы, работающие над более глубоким пониманием воздействия ИИ

Открытый ИИ некоммерческая исследовательская компания ИИ, открывающая и вводящая в действие путь к безопасному общему искусственному интеллекту

3. Отдельные компании

Google

В сообщении блога, опубликованном в июне 2018 г., генеральный директор Сундар Пичаи делится 7 принципами искусственного интеллекта Google: https://blog.google/topics/ai/ai-principles/

Microsoft

Microsoft опубликовала свои принципы и ценности искусственного интеллекта: https://www.microsoft.com/en-us/ai/our-approach-to-ai

А как насчет Австралии?

В рамках бюджета на 2018 год австралийское правительство инвестировало 29,9 млн долларов в течение четырех лет в проекты, в которых используется эта технология. Основная часть финансирования будет предоставлена ​​через программу Центров совместных исследований Министерства промышленности, инноваций и науки (CRC).

Деньги также пойдут на разработку этики ИИ. Также выделяются стипендии на получение докторской степени и обучение в школе. Большая часть финансирования поступит в 2019/20 финансовом году.

Австралийское компьютерное общество создало Комитет по этике искусственного интеллекта. Состав этого комитета был объявлен в конце 2017 года.

Главный научный сотрудник Австралии д-р Алан Финкель выступил с программной речью на мероприятии Комитета экономического развития Австралии под названием Искусственный интеллект: потенциал, влияние и регулирование в Сиднее 18 мая 2018 года. В этой речи он предложил« Сертификат Тьюринга : Набор стандартов, проверенных независимыми аудиторами, которые сертифицируют продукты разработчиков ИИ, их бизнес-процессы и их постоянное соответствие четким и определенным ожиданиям.

Резюме

Мне понравилось исследовать этот доклад. Правительства, партнерства и отдельные компании осознают преобразующий потенциал ИИ, риски ошибиться и вкладывают ресурсы в эффективные стратегии по снижению этих рисков. Я хотел бы услышать от вас, есть ли у вас примеры других групп по всему миру, которые лидируют в области ответственного ИИ.