Почему нашему ИИ нужно понимать причинно-следственные связи

Что не так с корреляцией?

В мае 2016 года алгоритм COMPAS был отмечен как предвзятый на расовой почве [1]. Этот алгоритм использовался США для вынесения приговоров по уголовным делам путем прогнозирования вероятности повторного совершения преступления. Было подсчитано, что чернокожий человек с большей вероятностью совершит повторное преступление, чем белый человек с теми же другими фоновыми факторами.

Проблема заключалась в том, что алгоритм ошибочно принимал корреляцию (модели преступности в прошлом) с причинно-следственной связью (черный цвет повышает вероятность совершения преступления).

Это может быть проблемой и в медицине. Учтите следующее:

100 пациентов госпитализированы с пневмонией, 15 из которых также страдают астмой. Врачи знают, что из-за астмы они подвергаются более высокому риску заболеть, поэтому дайте им более агрессивное лечение. Из-за этого пациенты, страдающие астмой, выздоравливают быстрее.

Если мы будем использовать эти данные для обучения модели и не будем осторожны, модель может прийти к выводу, что астма действительно улучшает выздоровление. В результате он может порекомендовать менее агрессивное лечение. Конечно, мы видим, что это неправильно, но для модели ИИ это не так очевидно.

От статистики к машинному обучению

Эта проблема корреляции без причинно-следственной связи является важной проблемой в машинном обучении.

Как отмечает блог ryx, r, ключевое различие между статистикой и машинным обучением - это то, на чем мы фокусируем наше внимание. В статистике основное внимание уделяется параметрам модели. Например. Для модели, которая прогнозирует цену дома, мы хотим понять каждый параметр и то, как он влияет на прогноз.

С другой стороны, в машинном обучении основное внимание уделяется меньше параметрам и больше прогнозам. Сами параметры так же важны, как и их способность предсказать интересующий результат.

Машинное обучение действительно отлично подходит для определения сложных, тонких взаимосвязей в больших объемах данных для прогнозирования результатов с высокой точностью. Проблема в том, что эти отношения являются корреляциями, а не причинно-следственными связями.

В чем разница между корреляцией и причинно-следственной связью?

Короче:

Корреляция - это связь. Когда одно идет вверх, другое падает. Или вверх. На самом деле это не имеет значения, если они меняются вместе.

Но мы не знаем, вызвало ли второе изменение первое. Или даже если второе вызывает первое. Также может быть третий фактор, который фактически изменяет обе точки независимо друг от друга.

Допустим, мы замечаем корреляцию между солнечными ожогами и продажами мороженого. Покупают ли люди больше мороженого после солнечных ожогов? Или люди покупают мороженое, а затем слишком долго проводят на солнце?

Возможно, но это несущественно по сравнению с истинной причиной корреляции. У обоих есть общая причина; солнечная погода. Здесь солнце - это «сбивающий с толку» то, что влияет на обе интересующие переменные одновременно (что приводит к корреляции).

Итак, чтобы перейти от корреляции к причинно-следственной связи, нам нужно удалить все возможные факторы, мешающие. Если мы учитываем все искажающие факторы (и принимаем во внимание случайную вероятность), но при этом все еще наблюдаем связь, мы можем сказать, что существует причинно-следственная связь.

Итак, как мы можем удалить искажающие информацию?

Золотым стандартом является рандомизированное контрольное исследование (РКИ).

Здесь мы полностью случайным образом делим нашу выборку на две части. Одна половина получает одно лечение, а другая половина - другое. Поскольку разделение было (по крайней мере, теоретически) полностью случайным, любые различия между исходами связаны с различным лечением.

Но иногда мы не можем провести РКИ. Возможно, мы уже собрали данные. Или, может быть, мы исследуем переменную, которую не можем изменить (например, влияние генетики или погоды). Что мы можем сделать?

Здесь есть изящный математический подход, который называется расслоение по смешивающим факторам. Я не буду здесь вдаваться в подробности, но, по сути, он устраняет мешающие факторы, суммируя все возможные комбинации их значений. (Если интересно, Judea Pearl является пионером в этой области и описывает методологию здесь. Более короткое и простое описание дано Ференцем Хусаром здесь).

Причинно-следственная связь: будущее машинного обучения?

Введение причинно-следственной связи в машинное обучение может сделать выходные данные модели более надежными и предотвратить типы ошибок, описанных ранее.

Но как это выглядит? Как мы можем закодировать причинно-следственную связь в модели?

Точный подход зависит от вопроса, на который мы пытаемся ответить, и типа имеющихся у нас данных.

Недавний пример - статья Babylon Health. Они использовали причинно-следственную модель машинного обучения для ранжирования вероятных заболеваний на основе симптомов, факторов риска и демографических характеристик пациента.

Они научили модель спрашивать: «Если я лечу эту болезнь, какие симптомы исчезнут?» и «если я не буду лечить это заболевание, какие симптомы останутся?». Они закодировали эти вопросы в виде двух математических формул. Использование этих вопросов приводит к возникновению причинно-следственной связи: если лечение болезни приводит к исчезновению симптомов, значит, это причинно-следственная связь.

Они сравнили свою причинно-следственную модель с моделью, которая рассматривала только корреляции, и обнаружили, что она работает лучше - особенно для более редких заболеваний и более сложных случаев.

Взгляд в будущее

Несмотря на огромный потенциал машинного обучения и связанный с ним интерес, мы не должны забывать о наших основных статистических принципах.

Мы должны выйти за рамки корреляции (ассоциации), чтобы посмотреть на причинно-следственную связь и встроить ее в наши модели.

Мы можем сделать это, удалив сомнительные факторы; с помощью рандомизированных контрольных испытаний или интеллектуальных математических манипуляций.

Это важно для того, чтобы мы, как общество, могли извлекать выгоду из машинного обучения, не поддаваясь его недостаткам.

Первоначально опубликовано на сайте chrislovejoy.me 31 октября 2020 г.

Ссылки

(1) Машинная предвзятость при вынесении приговора - Pro Publica

(2) Причинно-следственный вывод в статистике: учебник, глава 3: Эффект вмешательства

(3) ML за пределами подгонки кривой - блог по ИНФЕРЕНЦИЯМ

(4) От статистики к машинному обучению - блог ryx, r

(5) Повышение точности медицинского диагноза с помощью каузального машинного обучения [исследовательская статья] от Babylon Health

Другие статьи о корреляции и причинно-следственной связи:

Приложение: иерархия причинных выводов (лестница причинности Джудеи Перла)

Иудея Перл описывает лестницу причинных умозаключений.

Выходя за рамки ассоциативного вывода, он рассматривает два основных типа: интервенционный причинный вывод и контрфактический причинный вывод.

Интервенционный причинно-следственный вывод спрашивает: «Что произойдет с B, если я установлю A на значение X?» Если установка значения A выше приводит к более высокому значению B (без искажающих факторов), мы говорим, что связь является причинной.

Контрфактический причинно-следственный вывод немного сложнее. Мы спрашиваем: «Учитывая, что A было значением X, и это привело к тому, что B стало равным Y, что бы произошло, если бы A действительно было более высоким значением?» (т.е. он запрашивает это после, что событие уже произошло). Если бы A было другим, это привело бы к другому значению B, мы говорим, что связь является причинной.

Если вы хотите понять эти различия, ознакомьтесь со следующими ресурсами: