На дворе 2019 год, искусственный интеллект (ИИ) повсюду и останется здесь навсегда. ИИ доминирует в наших домах, офисах и на открытом воздухе — от него никуда не деться во все более цифровом мире. На нашу повседневную жизнь влияют процессы искусственного интеллекта: от умной категоризации электронной почты до принятия решений по автокредитам, онлайн-рекомендаций по продуктам и взаимодействия с умными личными помощниками, такими как Siri, Cortana, Google и Alexa.

Машинное обучение является основным компонентом ИИ. Это способность учиться без какого-либо наблюдения со стороны человека путем выявления закономерностей в потоках входных данных. В этом смысле люди запрограммировали машины на обучение, формулируя и устанавливая правила и параметры из больших наборов данных, но возникает вопрос: кто проверяет работу человека? Будут ли их личные предубеждения также проявляться в ИИ? Кроме того, можем ли мы доверять данным в наборах данных? В современном мире самая большая проблема ИИ и больших данных — этическая.

Для чего собираются данные?

На мероприятии University of Sydney Business School группе экспертов по ИИ задали вопрос об этичности ИИ и больших данных. Дирк Ховорка, доцент бизнес-информационных систем в University of Sydney Business School, считает, что данные собираются не одной компанией или организацией для одной цели. По его словам, этические данные должны вращаться вокруг конкретных случаев использования людьми. Это возможность для инженеров быть более ориентированными на людей и больше думать о конечном пользователе. Данными можно легко манипулировать, поэтому необходимо учитывать моральные соображения.

ИИ для людей?

Пенни Вонг, соучредитель ИИ-стартапа Radmis, считает, что при разработке технологии постоянно требуются проверки чувств. Признавая себя оптимисткой, она считает, что состояние ИИ в настоящее время является двухлетним ребенком, которого нам нужно будет воспитывать и учить ценностям, человеческой морали, этике и законам, регулирующим ИИ в стране его происхождения. Для Дирка реальность ребенка предполагает сознание, с чем он не согласен, поскольку машины не могут чувствовать эмоции, как люди.

Тем не менее, я считаю, что точка зрения Дирка может быть справедливой в краткосрочной перспективе, но может измениться в долгосрочной перспективе, поскольку роботы становятся все более похожими на людей и быстро становятся суррогатными помощниками по уходу за пожилыми и одинокими. В Японии роботы для общения, наблюдения за здоровьем, уборки, стирки, упражнений и помощи движениям тела доминируют в индустрии домов престарелых и домашней прислуги (потенциальный рынок на 3,8 миллиарда долларов). Это облегчает жизнь персоналу дома престарелых и создает комфорт для жильцов. В стране со стареющим населением и сокращающейся рабочей силой роботы заполняют важный пробел на рынке квалифицированной рабочей силы. В результате нам необходимо обеспечить, чтобы роботы, использующие ИИ и большие данные, были максимально этичными, чтобы им могли доверять самые уязвимые члены нашего общества.

Вопросы: кто проверяет работу человека? Будут ли их личные предубеждения также проявляться в ИИ? Кроме того, можем ли мы доверять данным в наборах данных? В современном мире самая большая проблема ИИ и больших данных — этическая.

Какие решения позволяют свести к минимуму систематическую ошибку в данных?

Для доктора Кюсик (Мав) Ким, руководителя отдела расширенной аналитики и искусственного интеллекта в Вестпак, крайне важно наличие надежных механизмов управления данными. Он говорит, что создание комитета по этике и необходимость проведения консультаций с общественностью важны для обеспечения правильного сбора и использования данных и в то же время для завоевания доверия общественности и конечных пользователей.

Ниже приведены некоторые дополнительные рекомендации, которые я рекомендую для минимизации предвзятости и повышения справедливости в ваших наборах данных:

- Принимать разнообразие: Преодоление предвзятости — это необходимость создания команды, состоящей из людей разного пола, возраста, уровня квалификации, национальности, мировоззрения, личностей, опыта и отраслей, чтобы избежать синдрома группового мышления. Кроме того, разнообразие наборов данных для триангуляции и дополнения наборов данных по сравнению с другими, а также использование различных методов моделирования также минимизирует систематическую ошибку при изучении данных.

Скажите что-нибудь и выскажитесь: нам нужно поощрять людей сообщать об организациях, которые используют неправильные методы работы с данными или нарушают наши права на данные. Власть принадлежит народу, если будет достаточно голосов, мы (массы) сможем добиться перемен, которые нельзя игнорировать. В известном недавнем примере фиаско с данными Facebook’s Cambridge Analytica вызвало широкое общественное возмущение бойкотом сети социальных сетей, что, наконец, вынудило компанию внедрить Политику конфиденциальности, которая является более прозрачной и придает большее значение правам на личные данные. .

- Примите меры по исправлению ваших данных: четкий план действий по сознательному мониторингу, удалению и уничтожению любых данных, которые влияют на беспристрастность и справедливость.

Конфиденциальность по замыслу: Общее положение о защите данных (GDPR) Европейского союза, касающееся защиты данных и конфиденциальности для всех лиц, вносит положительные изменения в способы защиты личных данных и повышает осведомленность о конфиденциальности. . С GDPR у людей теперь есть право выбирать, будут ли они передавать свои данные компаниям, больше не принимая это решение исключительно за компаниями.

- Использование технологии блокчейна: децентрализованная модель блокчейна делает данные более безопасными, поскольку они хранятся в нескольких местах хранения в разных городах, странах и т. д. Преимущества неизменности и прозрачности, которые предоставляет блокчейн, могут дать пользователям вернуть их право на неприкосновенность частной жизни. Предоставление пользователю полного контроля над его личной информацией устранит проблемы с конфиденциальностью и позволит пользователям быть законными владельцами того, как они будут монетизировать собственное использование данных.

ИИ во благо и в будущем?

Поскольку это относительно новая тема в рамках новых технологий, все еще остается много вопросов, касающихся этики ИИ и больших данных. Потребуется золотая середина, чтобы нанести удар между человеком и машиной. Хотя законы и правила, регулирующие ИИ, все еще находятся в зачаточном состоянии, мы должны задаться вопросом, верны ли данные, которые мы используем, и доверяем ли мы источнику данных. Репутация источника становится невероятно важной в том, как мы формируем это доверие. Поскольку развитие ИИ продолжает улучшаться и развиваться, нам нужно будет постоянно задаваться вопросом, является ли то, что мы переживаем, подлинным без аспектов участия человека. Устранение предвзятости в данных и ИИ — это то, чего мы надеемся достичь, и проливая больше света на важность этики и этических практик, мы надеемся, что мы будем свободны от человеческой предвзятости, данные всегда будут справедливыми для населения и никогда не будут считаться неэтично ни при каких обстоятельствах.

Об авторе:

Люси Лин является заместителем президента Сети выпускников бизнеса Сиднейского университета. Она также является основателем и директором по маркетингу Forestlyn, глобальной маркетинговой консалтинговой компании, специализирующейся на новых технологиях. Она глубоко размышляет об искусственном интеллекте, данных, блокчейне, криптовалюте, умных городах и технологиях и регулярно говорит на эти темы. Для получения дополнительной информации: www.forestlyn.com