Возвышение людей в эпоху искусственного интеллекта

ИИ легко может стать искрой, зажигающей мир, началом новой эры, шагом к величайшей революции, которую когда-либо видел мир. Тем не менее, существует парализующее чувство незащищенности - социальной незащищенности, личной незащищенности, экономической незащищенности и незащищенности работы и даже философской незащищенности вокруг того, что ИИ означает для современного мира.

Должен ли он быть угрозой, коммерческой лестницей к более прибыльным и продуктивным рынкам? Должно ли это быть поводом для бунта и требования всеобщего базового дохода? Или это должно быть поводом посмотреть на свое отражение в зеркале и спросить - действительно ли мы действительно знаем, что значит быть человеком?

Технологические переломные моменты для ИИ

Хотя автоматизация довольно простых физических и когнитивных задач с большей вероятностью произойдет раньше (2020 г.), чем принятие решений с помощью ИИ (2026 г.), социальная тревога, вызванная чрезмерно раздутыми репортажами в прессе, вызывает смущение и непродуктивность.

В настоящее время AI и AS (автоматизированные системы) просто собираются вместе, чтобы моделировать компоненты высококвалифицированной интеллектуальной работы. Влияние технологического прогресса, ведущего к тому, что компьютеры превосходят людей по изолированным задачам, в сочетании с машинами, приобретающими интеллект с контролируемым обучением или без него, приведет к автоматизации 43–70% рабочих мест. Мы говорим, что за ужасная мысль. Это звук нашего разума или крик о помощи встревоженного поколения?

Асимметрия данных - проблема, а не злонамеренный ИИ

Вместо того, чтобы сосредоточиться на создании полезного ИИ и расширении его возможностей, мы слишком часто видим людей, сосредоточенных на построении враждебных отношений с автоматизированными и когнитивными системами.

Автоматизация компонентов навыков и когнитивных навыков - страшная мысль, но проблема не в этом. Проблема заключается в неравном распределении знаний об ИИ по всем слоям общества.

Другой аспект проблемы - асимметрия данных, означающая, что не все имеют равный доступ к данным, которые они создают как цифровые пользователи, и, безусловно, не имеют доступа к ценности, созданной в результате применения машинного обучения к этот пул данных.

ИИ обеспечивает более быстрые и улучшенные способы поддержки принятия решений

В MET около 20 супер-распознавателей работают над распознаванием людей на видео и фотографиях, даже если они претерпели значительные изменения внешности - цвета волос, возраста или макияжа. ИИ может легко научиться распознавать людей и следить за ними в режиме реального времени, делая наблюдение дешевле и эффективнее.

Диагностика опухолей с помощью систем искусственного интеллекта проходит быстрее по сравнению с диагностикой, поставленной квалифицированными врачами. И, наконец, глобальные фонды управления инвестициями добавляют изучение систем искусственного интеллекта, чтобы заменить или пополнить свой персонал.

Ясно, что ИИ может улучшить наши способности анализировать, понимать и исследовать огромные объемы информации. Также вероятно, что, если в моделях прогнозирования будут устранены предубеждения, ИИ можно будет до определенного предела доверять при принятии решения о ходе действий в некритических ситуациях. Человеческий надзор, особенно в здравоохранении, военной и юридической отраслях, по-прежнему абсолютно необходим и должен преобладать над любой системой искусственного интеллекта.

Если люди могут принимать более обоснованные решения с помощью ИИ, почему страх быть лишним или считаться «неполноценным» мешает нам даже участвовать в построении этичных и доброжелательных систем ИИ?

Проблема массового внедрения ИИ

У меня нет технического образования в области машинного обучения или информатики, но я технолог, которому в основном интересно все. Поэтому я записываюсь на курсы самообучения MooC по машинному обучению, создаю чат-ботов и учусь кодировать навык Alexa. Я организовал первую в Великобритании конференцию по искусственному интеллекту в виртуальной реальности, а недавно стал членом IEEE, изучая основы этики ИИ и теории информации.

Это не то, что делает средний нетехнолог. И это, безусловно, намного меньше того, что должен делать ученый, занимающийся ИИ, с точки зрения времени, потраченного на обучение, работу, тестирование, строительство.

Обычный человек не знает, где найти точную информацию об ИИ. Даже если они это сделают, они все равно должны найти его достаточно убедительным и доступным, чтобы тратить энергию на внедрение новых технологий.

Мы просто дошли до стадии экспериментов в области ИИ. пока нечего осязаемо принимать. Но проблема массового внедрения заключается не только в том, насколько крутой является кривая внедрения в настоящее время; дело в неравном распределении знаний о преимуществах, подводных камнях и ценности, которые системы ИИ могут создать для каждого из нас.

Корень проблемы можно проследить до владения данными. Если в настоящее время мы не можем определить нормы для разработки систем, которые позволяют обычным пользователям иметь доступ к их личным данным и право раскрывать столько информации, сколько они хотят, третьим сторонам, тогда как мы можем даже попытаться разработать системы ИИ, которые будут полезны для всех и каждый в отдельности?

Может ли человек иметь опекуна ИИ?

Глобальная инициатива IEEE по этическим соображениям в области искусственного интеллекта и автономных систем недавно опубликовала проект документа под названием «Этично согласованный дизайн», в котором излагаются 3 основополагающих принципа, касающихся всех типов AI / AS:

Воплощайте высшие идеалы прав человека

Сделайте ставку на максимальную пользу для человечества и окружающей среды.

Снижение рисков и негативного воздействия по мере развития ИИ / АС как социально-экономических систем.

Чтобы разработать полезный ИИ для всех, крайне важно, чтобы технологи понимали важность защиты симметрии данных в любой цифровой системе. Цель состоит в том, чтобы позволить людям определять личные данные, получать к ним доступ и управлять ими в качестве кураторов своей цифровой вселенной и в качестве непосредственных благодетелей любой ценности, полученной в результате применения интеллектуального анализа данных, глубокого обучения или других методологий к пулам данных, созданным каждым человеком, а также общество в целом.

Поскольку это больше невозможно, поскольку право собственности на данные не может быть адаптировано к системам, которые уже склонны собирать данные без осознанного согласия, единственный выход, возможно, - назначить опекуна ИИ для каждого человека. И AI Guardian, который «понимает» механизмы цифровой идентификации и данных, генерируемых пользователями, и может, возможно, торговать информацией с третьими сторонами или продавать большие объемы данных под контролем человека компаниям, нуждающимся в данных.

Хотя ИИ невероятно сложен и запутан как технология, он не должен быть недоступен для непрофессионала. ИТ должны быть инклюзивными, прозрачными и адекватными. Если вас тоже беспокоит демократизация ИИ, свяжитесь со мной. Я хотел бы услышать ваши мысли, где бы вы ни находились, и независимо от того, какой у вас текущий уровень понимания ИИ.

В век информации некоторый уровень невежества является нормальным. Но это не должно мешать вам проявлять любопытство, активность и постоянно бросать вызов тому, чем, по мнению 1%, является ИИ или каким должен быть.