Нам нужно не только обучать наши алгоритмы, но и быть открытыми для возможности того, что они могут рассказать нам о нас самих.

Сегодня, когда мы вступаем в «когнитивную эру» мыслящих машин, проблема того, что должно направлять наши действия, приобретает все большее значение. Если нам так сложно обозначить принципы, согласно которым человек должен действовать справедливо и разумно, то как мы можем закодировать их в создаваемом нами искусственном интеллекте? Это вопрос, на который нам нужно найти ответы очень скоро.

У любого уважающего себя издателя есть желание так или иначе упомянуть об искусственном интеллекте. Если копнуть глубже, то в основном их ИИ - это либо автоматизированные процессы, либо алгоритмы на основе машинного обучения, предоставляющие конкретные модели для очень конкретных и нишевых вариантов использования. До настоящего ИИ, каким мы его знаем из фантастических фильмов, еще далеко.

Ай обращается к разуму людей, в то же время мы боимся того, что он может принести. Машины могут делать только то, чему мы их учим.

Если мы придаем им предвзятость, они предвзяты - отсюда важность этических дискуссий.

Алгоритм - это просто алгоритм. Если мы предоставим только специалистам по данным создавать свою модель, глядя на данные, мы получим технический результат. Мы также должны предоставить им контекст и правила, которые мы как люди определяем как приемлемые в нашем обществе.

Эволюция ИИ

ИИ, которые мы видим в научно-фантастических фильмах, таких как Я, робот и Ex Machina, все еще далеки от текущих возможностей. Поскольку Ай стал настолько широко используемым термином, нам пришлось проводить различие между последним и текущим состоянием.

Узкий ИИ - это диалоговый ИИ и Визуальное распознавание, например, в беспилотных автомобилях. Для обучения этих моделей используется капча, которую мы иногда видим на веб-сайтах, чтобы указать, что мы не робот. Этот тип Ai предназначен для очень конкретных случаев использования, узких, очень полезных и применимых.

Широкий ИИ, это будет ИИ, в который мы можем внести нашу человеческую рациональность. Как люди, мы понимаем мир, как все работает вместе. Основываясь на наших моделях ожиданий, мы применяем рассуждения и заставляем задуматься о нашей модели мира.

General Ai, это наша научная фантастика Ai, где мы полностью доверяем результатам компьютерных моделей, а Ai будет работать в расширенном режиме, делая нас лучше, как людей.

Нишевый вариант использования, да, но уже очень полезный

Как упоминалось ранее, Ai в настоящее время очень хорош только для очень специфических нишевых вариантов использования. Например, алгоритмы стали очень хороши в распознавании объектов и преобразовании речи в текст.

Эти очень специфические модели позволяют нам выполнять распознавание лиц, обнаружение объектов и распознавание, а также автоматическую расшифровку документов. Задача, в которой эти алгоритмы машинного обучения стали очень эффективными. Прекрасные примеры можно найти в бельгийском стартапе Robovison.

Robovision использует машинное обучение и еще один шаг вперед к практике глубокого обучения для предоставления решений в области сельского хозяйства, производства, СМИ и безопасности. В сельском хозяйстве они могут научить роботов определять и распознавать новые растения за считанные минуты, после распознавания и построения модели робот готов к посадке нового типа растений. В логистической отрасли распознавание объектов гарантирует, что поддоны правильного размера и в правильном положении перед отправкой на склад, повышают безопасность и снижают риск несчастных случаев.

Безопасность, прозрачность и доверие

Большинству решений AI требуется много данных, они имеют множество параметров (функций) и, следовательно, множество зависимостей между множеством переменных, математические вычисления векторов для большинства людей слишком сложны, неинтересны и, следовательно, у них нет интерес к пониманию внутреннего механизма получения результата и результатов. Этот тип Blackbox похож на волшебное шоу, мы поражены результатами (внезапно появляется слон), но мы не знаем и не понимаем, как это произошло и почему это произошло.

В недавнем чате с Воутером Денайером, техническим директором IBM BeLux, он снял наши опасения по поводу прозрачности и возможности заглядывать внутрь черного ящика.
Платформа OpenScale позволяет анализировать путь принятия решений при построении и запуске моделей путем отслеживания и измерение результатов ИИ на протяжении его жизненного цикла. Это кажется намного лучше, чем пытаться понять наше человеческое поведение и понять, почему мы, люди, принимаем определенные решения, отбрасывая свои человеческие предубеждения и мотивацию для принятия решений.

На изображении ниже показано, как модель приняла решение и какое влияние на результат оказали переменные. Такое понимание логики модели вызовет большее доверие к результату и позволит нам доверять, а не бояться Ai.

Пока люди не понимают предложения Гая, они не принимают эти предложения. Прозрачность и объяснимость, которые приводят к большему доверию, являются ключевыми словами для общего принятия ИИ.

Контекст, этика и доверие

Чтобы позволить Ai учиться на своих ошибках, мы должны обеспечить управление, правила и этику. Это те же правила, которые мы должны применять как человеческое общество. В то же время Ai работает иначе, чем традиционное программирование. Система Ai предназначена не только для абстрактных задач, но и для вычисления вероятностей.

С необоснованными заявлениями, такими как предупреждение Илона Маска о превосходстве ИИ, нужно бороться. Эти упрощенные утверждения дают толчок развитию новых неизвестных технологий.

Недавняя исследовательская работа Нила Радена Этическое использование искусственного интеллекта для актуариев дает хорошее глубокое понимание сложности. В документе рассматриваются все моменты, на которые нам нужно обратить внимание при построении этического ИИ.

  • Создание ответственности за то, что разработчик создает и использует
  • Использование прозрачности для обеспечения видимости логики ИИ
  • Обеспечение предсказуемости выходных данных реализации Ai и получения согласованных результатов
  • Гарантия проверяемости результатов
  • Обеспечение неподкупности и защиты систем AI от манипуляций.

Я не сказал, что разработать этот тип ИИ будет просто, но и сложные работы тоже. В этом разница между сложными и сложными проблемами, в той сфере, в которой мы сейчас находимся.

Без этических дискуссий, контекста, необходимого для придания значения и аргументации результату модели, мы можем получить предвзятость, что приведет к непредвиденным результатам. Мониторинг и контроль, а также возможность отслеживать результаты являются одними из факторов, которые сделают Ai успешным. Не ожидайте, что модель ИИ будет реализовывать наши этические правила сама по себе, мы должны внедрять и активно внедрять эти правила для нашего ИИ.

Как сказал Воутер, Ай может помочь нам стать лучше. Представьте себе систему, которая живет по нашим этическим правилам и может помочь нам не сбиться с пути и устранить наши собственные предубеждения.

Спасибо, что прочитали мой пост.