Нам нужно не только обучать наши алгоритмы, но и быть открытыми для возможности того, что они могут рассказать нам о нас самих.
Сегодня, когда мы вступаем в «когнитивную эру» мыслящих машин, проблема того, что должно направлять наши действия, приобретает все большее значение. Если нам так сложно обозначить принципы, согласно которым человек должен действовать справедливо и разумно, то как мы можем закодировать их в создаваемом нами искусственном интеллекте? Это вопрос, на который нам нужно найти ответы очень скоро.
У любого уважающего себя издателя есть желание так или иначе упомянуть об искусственном интеллекте. Если копнуть глубже, то в основном их ИИ - это либо автоматизированные процессы, либо алгоритмы на основе машинного обучения, предоставляющие конкретные модели для очень конкретных и нишевых вариантов использования. До настоящего ИИ, каким мы его знаем из фантастических фильмов, еще далеко.
Ай обращается к разуму людей, в то же время мы боимся того, что он может принести. Машины могут делать только то, чему мы их учим.
Если мы придаем им предвзятость, они предвзяты - отсюда важность этических дискуссий.
Алгоритм - это просто алгоритм. Если мы предоставим только специалистам по данным создавать свою модель, глядя на данные, мы получим технический результат. Мы также должны предоставить им контекст и правила, которые мы как люди определяем как приемлемые в нашем обществе.
Эволюция ИИ
ИИ, которые мы видим в научно-фантастических фильмах, таких как Я, робот и Ex Machina, все еще далеки от текущих возможностей. Поскольку Ай стал настолько широко используемым термином, нам пришлось проводить различие между последним и текущим состоянием.
Узкий ИИ - это диалоговый ИИ и Визуальное распознавание, например, в беспилотных автомобилях. Для обучения этих моделей используется капча, которую мы иногда видим на веб-сайтах, чтобы указать, что мы не робот. Этот тип Ai предназначен для очень конкретных случаев использования, узких, очень полезных и применимых.
Широкий ИИ, это будет ИИ, в который мы можем внести нашу человеческую рациональность. Как люди, мы понимаем мир, как все работает вместе. Основываясь на наших моделях ожиданий, мы применяем рассуждения и заставляем задуматься о нашей модели мира.
General Ai, это наша научная фантастика Ai, где мы полностью доверяем результатам компьютерных моделей, а Ai будет работать в расширенном режиме, делая нас лучше, как людей.
Нишевый вариант использования, да, но уже очень полезный
Как упоминалось ранее, Ai в настоящее время очень хорош только для очень специфических нишевых вариантов использования. Например, алгоритмы стали очень хороши в распознавании объектов и преобразовании речи в текст.
Эти очень специфические модели позволяют нам выполнять распознавание лиц, обнаружение объектов и распознавание, а также автоматическую расшифровку документов. Задача, в которой эти алгоритмы машинного обучения стали очень эффективными. Прекрасные примеры можно найти в бельгийском стартапе Robovison.
Robovision использует машинное обучение и еще один шаг вперед к практике глубокого обучения для предоставления решений в области сельского хозяйства, производства, СМИ и безопасности. В сельском хозяйстве они могут научить роботов определять и распознавать новые растения за считанные минуты, после распознавания и построения модели робот готов к посадке нового типа растений. В логистической отрасли распознавание объектов гарантирует, что поддоны правильного размера и в правильном положении перед отправкой на склад, повышают безопасность и снижают риск несчастных случаев.
Безопасность, прозрачность и доверие
Большинству решений AI требуется много данных, они имеют множество параметров (функций) и, следовательно, множество зависимостей между множеством переменных, математические вычисления векторов для большинства людей слишком сложны, неинтересны и, следовательно, у них нет интерес к пониманию внутреннего механизма получения результата и результатов. Этот тип Blackbox похож на волшебное шоу, мы поражены результатами (внезапно появляется слон), но мы не знаем и не понимаем, как это произошло и почему это произошло.
В недавнем чате с Воутером Денайером, техническим директором IBM BeLux, он снял наши опасения по поводу прозрачности и возможности заглядывать внутрь черного ящика.
Платформа OpenScale позволяет анализировать путь принятия решений при построении и запуске моделей путем отслеживания и измерение результатов ИИ на протяжении его жизненного цикла. Это кажется намного лучше, чем пытаться понять наше человеческое поведение и понять, почему мы, люди, принимаем определенные решения, отбрасывая свои человеческие предубеждения и мотивацию для принятия решений.
На изображении ниже показано, как модель приняла решение и какое влияние на результат оказали переменные. Такое понимание логики модели вызовет большее доверие к результату и позволит нам доверять, а не бояться Ai.
Пока люди не понимают предложения Гая, они не принимают эти предложения. Прозрачность и объяснимость, которые приводят к большему доверию, являются ключевыми словами для общего принятия ИИ.
Контекст, этика и доверие
Чтобы позволить Ai учиться на своих ошибках, мы должны обеспечить управление, правила и этику. Это те же правила, которые мы должны применять как человеческое общество. В то же время Ai работает иначе, чем традиционное программирование. Система Ai предназначена не только для абстрактных задач, но и для вычисления вероятностей.
С необоснованными заявлениями, такими как предупреждение Илона Маска о превосходстве ИИ, нужно бороться. Эти упрощенные утверждения дают толчок развитию новых неизвестных технологий.
Недавняя исследовательская работа Нила Радена Этическое использование искусственного интеллекта для актуариев дает хорошее глубокое понимание сложности. В документе рассматриваются все моменты, на которые нам нужно обратить внимание при построении этического ИИ.
- Создание ответственности за то, что разработчик создает и использует
- Использование прозрачности для обеспечения видимости логики ИИ
- Обеспечение предсказуемости выходных данных реализации Ai и получения согласованных результатов
- Гарантия проверяемости результатов
- Обеспечение неподкупности и защиты систем AI от манипуляций.
Я не сказал, что разработать этот тип ИИ будет просто, но и сложные работы тоже. В этом разница между сложными и сложными проблемами, в той сфере, в которой мы сейчас находимся.
Без этических дискуссий, контекста, необходимого для придания значения и аргументации результату модели, мы можем получить предвзятость, что приведет к непредвиденным результатам. Мониторинг и контроль, а также возможность отслеживать результаты являются одними из факторов, которые сделают Ai успешным. Не ожидайте, что модель ИИ будет реализовывать наши этические правила сама по себе, мы должны внедрять и активно внедрять эти правила для нашего ИИ.
Как сказал Воутер, Ай может помочь нам стать лучше. Представьте себе систему, которая живет по нашим этическим правилам и может помочь нам не сбиться с пути и устранить наши собственные предубеждения.
Спасибо, что прочитали мой пост.