Где мы находимся?

Ни для кого не секрет, что мы находимся в разгаре следующей великой эволюции в наш век технического прогресса; Искусственный интеллект (ИИ) и машинное обучение (МО) повсюду, независимо от того, принимают ли они решения о том, какие рекламные объявления доставляются конечному пользователю в Instagram, или пилотируют Tesla на I-405 в час пик. В то время как машины обладают вычислительным преимуществом перед людьми с точки зрения обучения на предварительно обработанных арифметических данных, человеческий мозг намного превосходит способность машины обрабатывать органические сенсорные данные, выполняя более ста триллионов вычислений в унисон (duToit, 2019). Таким образом, не секрет, почему только 3,79% опрошенных психиатров считают, что их работа полностью устареет с появлением ИИ (Doraiswamy et al. 2020), и они правы в своем скептицизме. ИИ действует как зеркало, изучая только те данные, которые ему показывают, и в последние годы общественность узнала о множестве предубеждений, которые могут помешать автономному ИИ без надлежащих мер предосторожности. Эти машины очень буквальны, и, по словам Айлин Калискан, профессора компьютерных наук в Университете Джорджа Вашингтона, «…машины обучаются на человеческих данных, а люди предвзяты». (Resnick, 2019) Тогда мы должны задать себе вопрос: какую роль может и должен играть ИИ в исследованиях и терапии человеческого мозга? Чтобы полностью ответить на этот вопрос, нужно быть готовым отделить технические возможности от их этических границ и понять, что возможность не всегда означает пользу для человека. Однако с расширенными возможностями моделирования машинного обучения нетрудно представить, что искусственный интеллект (ИИ) будет играть большую роль в точной диагностике и выборе наилучшей формы лечения для людей, страдающих от самых тяжелых заболеваний. распространенные, но загадочные неврологические расстройства и психические заболевания, а также предоставить новые и инновационные способы лечения наиболее опасных для жизни ситуаций, вызванных такими заболеваниями.

Машинное обучение (ML) использует линейную алгебру для создания все более точных моделей, способных анализировать данные и обнаруживать закономерности на уровнях, с которыми люди не могут конкурировать, и, таким образом, может демистифицировать некоторые из самых интригующих тем психологии и неврологии, обеспечивая более точную диагностику расстройств и болезни. На самом деле в нейробиологии и психиатрии уже ведется предварительная работа по моделированию болезни Альцгеймера. В ходе предварительных исследований с использованием машинного обучения исследователи обнаружили четкую связь между бета-амилоидом, бляшкой, обнаруживаемой в мозгу пациентов с болезнью Альцгеймера, и нейродегенеративным процессом. Это, вероятно, вызовет дальнейший анализ, гипотезы и исследования, ведущие не только к более раннему выявлению нейродегенеративных заболеваний, но и к пониманию других когнитивных дисфункций и фармакологических методов их лечения (Tai et al. 2019). В других исследованиях алгоритмы машинного обучения смогли анализировать данные МРТ для точного определения сканов здорового мозга по сравнению с мозгом больных шизофренией, включая точное предсказание возраста пациента (Tai et al. 2019). Как поисковые, так и описательные исследования важны для дальнейшего понимания этих неясных болезней. Благодаря обширным исследовательским исследованиям с использованием ИИ и МО мы не только можем прийти к выводам, недоступным человеческому разуму в противном случае благодаря таким детальным знаниям, но мы можем использовать эти новые выводы в качестве краеугольных камней для дальнейшей разработки гипотез для более описательных исследований, чтобы подтвердить или опровергнуть.

Для реального терапевтического применения примите во внимание работу Энди Блэквелла на стыке ИИ и лечения психических заболеваний. Блэквелл задает вопрос в своем выступлении на TED в марте 2020 года: «Было бы неплохо, если бы мы смогли сделать все правильно с первого раза?» (Blackwell, 2020) По сравнению с фармакологическими методами лечения, которые сами по себе имеют разную степень успеха при первом, втором или даже третьем назначении, он утверждает, что мы осведомлены об активном ингредиенты в прописанных таблетках, и что пилюля остается неизменной день за днем, неделя за неделей, но, с другой стороны, у нас нет предварительных предположений относительно эффективного «ингредиента» в более чем ста различных психотерапевтических методах, используемых лицензированными терапевтами. по всему миру. Более того, эти методы и показатели эффективности гораздо менее значительны: вероятность выздоровления при использовании метода психотерапии для лечения депрессии составляет в среднем 50% (Blackwell, 2020). Подход, который избрали Блэквелл и его коллеги, является примером того, как ИИ способен помочь психиатру в наши дни и в наше время: они использовали комбинацию отслеживания симптомов и записи терапевтических сеансов, чтобы создать уникальный отпечаток пальца как для пациента, так и для терапевта, эффективно совпадающий. пациент с терапевтом и терапевтическим методом, наиболее подходящим для его уникальных потребностей, наблюдая, как их показатели успеха улучшаются с 52% до 60% в период с 2015 по 2019 год (Blackwell, 2020). Прошли те времена, когда мы должны были применять универсальный подход, особенно когда на кону стоит такой разнообразный, уникальный орган и жизнь человека.

Этика того, куда мы идем

Искусственный интеллект существует в трех подкатегориях: искусственный узкий интеллект, искусственный общий интеллект и искусственный сверхинтеллектуальность (дю Туа, 2019). Блэквелл и его коллеги использовали искусственный узкий интеллект (ANI) — и ИИ, созданный для выполнения одной конкретной задачи, а не для имитации истинного интеллекта людей — в своих усилиях по лучшему подбору пациента для терапевта и психотерапевтического метода. Хотя такое использование ANI в целом считается успешным, нет недостатка в этических проблемах, связанных с его использованием в здравоохранении. Среди многих общих опасений, как правило, связаны с дискриминацией, отсутствием конфиденциальности и отсутствием прозрачности или понимания того, как строятся и работают системы, и, несмотря на действия, предпринимаемые для подготовки к этим понятным опасениям, часто обеспечение их соблюдения является совершенно другим. борются все вместе (Mörch et al. 2020).

Подход, принятый многими, заключался в разработке контрольных списков. Канадский протокол, этический контрольный список для использования искусственного интеллекта в предотвращении самоубийств и психиатрической помощи, является одним из таких списков. Подход: создать команду, состоящую из экспертов, специалистов по этике и профессоров в области психологических и компьютерных наук, для разработки вопросов, извлечения доказательств, разработки рекомендаций и их проверки группой экспертов для дальнейшего пересмотра. В результате был представлен список из 44 пунктов, разделенных по типам проблем: «Описание автономной интеллектуальной системы», «Конфиденциальность и прозрачность», «Безопасность», «Риски, связанные со здоровьем» и «Предубеждения» (Mörch и др. 2020). Этот контрольный список этических норм описывает действия, необходимые для предоставления безопасного продукта общественности, включая прозрачность в отношении сбора данных, обработки и обмена, а также уровни автономии и модерации системы. Как конечный пользователь, этот тип информации часто будет представлен в форме лицензионного соглашения с конечным пользователем. Хотя эти этические проблемы постоянно обсуждаются и решаются, необходимо заявить, что юридический прецедент еще не создан для неправильного использования и неизбежных недостатков искусственного интеллекта в здравоохранении, особенно в таких случаях использования с высокими ставками, как предотвращение самоубийств.

В соответствии с Канадским протоколом разработчики и врачи могут придумывать новые и инновационные способы использования систем ANI в исследованиях и лечении психического здоровья, оставаясь при этом этически обоснованными. Одно из таких применений, вдохновленное фильмом 2013 года Она, где Хоакин Феникс играет главную роль в роли одинокого человека, который влюбляется в своего виртуального помощника на основе искусственного интеллекта, озвученного Скарлет Йоханнсен, – может быть виртуальным помощником, выступающим в роли устройство экстренного реагирования с биометрическими данными для людей, страдающих паническими атаками, приступами тревоги, различными формами депрессивных эпизодов и т. д. Носимые технологии, такие как Apple Watch или Fitbit Charge, могут предоставить данные, необходимые для обученного алгоритма машинного обучения, чтобы точно предсказать, страдает ли человек от чрезвычайной ситуации с психическим здоровьем или, возможно, просто наслаждается пробежкой по окрестностям. Например, входящие данные от устройства для мониторинга сердечного ритма с дополнительными функциями, такими как отслеживание GPS и возможность определить, встаете ли вы или нет, могут передавать эти три входных данных в систему с искусственным интеллектом, чтобы определить, вызвано ли ваше повышенное сердцебиение. к высокоинтенсивной деятельности или панической атаке. Аналогичным образом исследователи из Кореи добились более 78,4% успеха в прогнозировании того, страдает ли человек паническим расстройством или какой-либо другой формой тревожного расстройства, используя алгоритм машинного обучения логистической регрессии и один единственный вход: дисперсию сердечного ритма (Na et al. 2021). Используя тот же метод «отпечатков пальцев», который Блэквелл и его коллеги использовали для сопоставления пациента с врачом и методологией, эта программа также может сопоставить вас с обученной личностью. Будет ли виртуальный ассистент чувствовать себя более уверенно с мужским или женским голосом, какие слова, вероятно, помогут успокоить охваченного паникой человека и определить, способен ли страдалец к голосовому ответу, — все это находится в пределах возможного. для должным образом обученных систем с искусственным интеллектом.

Чтобы соблюдать Канадский протокол, мы должны оставаться полностью прозрачными в развитии нашей теоретической системы. Во-первых, наша цель (цели): мы стремимся смягчить ущерб от триггерных реакций на панические расстройства, тревожные расстройства и расстройства настроения. Кроме того, нам потребуется письменный, устный или виртуальный контент с описанием нашего финансирования, любых потенциальных конфликтов интересов, учетных данных, целевой аудитории, любых доказательств, подтверждающих наши маркетинговые заявления, наш протокол тестирования и любые жалобы, высказанные в отношении нашей системы. После этого необходимо составить лицензионное соглашение с конечным пользователем и представить его в соответствии с этическими нормами; Короче говоря, он не должен быть представлен в виде длинного юридического документа с удобной для нажатия кнопкой «Согласен» в нашем программном обеспечении, а должен быть представлен в виде маркеров или схем, демонстрирующих ключевую информацию, такую ​​как юридическая ответственность, методы сбора данных, доступность, согласие и отзыв согласия, доступ к своим данным, право на забвение и сбор данных у несовершеннолетних среди других практик, связанных с безопасностью. Наконец, сообщения о рисках для здоровья и потенциальных предубеждениях должны быть представлены в легко усваиваемой форме. Учитывая рост числа самоубийств среди людей в возрасте от 10 до 24 лет в период с 2007 по 2017 год на 56% (Tanzi, 2019), эти формы общения должны быть ориентированы на более молодую аудиторию, возможно, через социальные сети и развлекательные онлайн-центры, такие как YouTube.

Это мысленное упражнение было предназначено для разработки безопасного и этичного бизнес-плана, связанного с выпуском теоретической платформы психического здоровья на основе ИИ. Однако эта технология по-прежнему будет существовать в сфере искусственного узкого интеллекта, самого низкого из трех уровней искусственного интеллекта. В опросе, проведенном Oracle, 80% опрошенных были готовы получать терапевтические услуги от робота (Hickins, 2020). В то время как современные роботы способны имитировать человеческое поведение, роль консультанта и терапевта требует эмоционального познания и расширенного анализа настроений, на что ANI просто не способен; этот уровень лечения психического здоровья с помощью искусственного интеллекта, безусловно, требует искусственного общего интеллекта. Искусственный общий интеллект — это когда машина выходит за рамки однофункционального использования и начинает имитировать человеческий интеллект, вплоть до того, что становится разумной, движимой эмоциональными желаниями и способной к абстрактному мышлению (дю Туа, 2019). Этот уровень ИИ еще предстоит достичь, однако это дает человеческому роду идеальное время для решения вариантов использования и этических проблем так же, как мы это сделали с искусственным узким интеллектом.

Хотя они основаны на схожих технологиях, ANI и AGI сильно различаются по своим этическим соображениям; мы переходим от простых проблем конфиденциальности и безопасности сегодняшнего дня к гораздо более сложным проблемам, таким как ценность жизни ИИ, сосуществование нашего вида с другой полностью разумной формой жизни и даже «игра в Бога». Эволюция желания человека превзойти данное им Богом право управлять Его творением в царство, где они сами являются творцами, была задокументирована во множестве исторических событий и религиозных текстов (дю Туа, 2019). Если мы хотим создать машины по нашему подобию, с мозгом, функционирующим как наш, и обеспечивающим сознание, что мешает этим машинам стать такими же ошибочными, как люди, в глазах их создателя? Чтобы лучше поднимать и решать проблемы общего искусственного интеллекта, человеческий вид должен сделать решительные шаги в своем понимании собственного сознания, ценности и прав, связанных с их собственной жизнью, и прийти к соглашению относительно базового морального и этического кодекса.

В заключение, искусственный интеллект может и должен играть вспомогательную роль в области психического здоровья, принимая надлежащие меры предосторожности для обеспечения безопасного и этичного внедрения автономных систем, которые полагаются на такие конфиденциальные данные. Однако по мере развития технологии в ближайшие столетия должны продолжаться непрерывные дискуссии об этических подходах к разработке и внедрению. Готовясь к потенциально разумной эволюции систем искусственного интеллекта, люди должны продолжать добиваться успехов в своем понимании нейронауки и поведенческих наук, чтобы быть лучше подготовленными к тому, чтобы поднимать правильные вопросы, как мы это делаем с Узким Искусственным Интеллектом. Человеческий вид должен прийти к соглашению об основополагающем моральном и этическом кодексе, прежде чем создавать другую разумную расу с помощью общего искусственного интеллекта. Однако на данный момент мы должны продолжать развивать наше использование и этическое понимание искусственного узкого интеллекта в области здравоохранения, чтобы спасать жизни и понимать болезни, которые поражают человеческий мозг.

Процитированные работы:

Блэквелл А. (2020 г.) Искусственный интеллект и лечение психических заболеваний. Получено с https://www.ted.com/talks/andy_blackwell_artificial_intelligence_meets_mental_health_therapy

Дорайсвами, П.М., Близ, К., и Боднер, К. (2020). Искусственный интеллект и будущее психиатрии: результаты глобального опроса врачей. Искусственный интеллект в медицине, 102. https://doi-org.ezproxy.umgc.edu/10.1016/j.artmed.2019.101753

дю Туа, CW (2019). Искусственный интеллект и вопрос бытия. Hervormde Teologiese Studies, 75(1), 1–10. https://doi-org.ezproxy.umgc.edu/10.4102/hts.v75i1.5311

Хикинс, М. (2020). Почему большинство людей доверяют роботам, а не другим людям в вопросах психического здоровья. EWeek, N.PAG. https://search-ebscohost-com.ezproxy.umgc.edu/login.aspx?direct=true&db=iih&AN=146348039&site=eds-live&scope=site

Мёрх, К.-М., Гупта, А., и Мишара, Б.Л. (2020). Канадский протокол: Этический контрольный список для использования искусственного интеллекта в предотвращении самоубийств и психическом здоровье. Искусственный интеллект в медицине, 108. https://doi-org.ezproxy.umgc.edu/10.1016/j.artmed.2020.101934

На, К.-С., Чо, С.-Э., и Чо, С.-Дж. (2021). Отличие панического расстройства от других тревожных расстройств на основе машинного обучения. Журнал аффективных расстройств, 278, 1–4. https://doi-org.ezproxy.umgc.edu/10.1016/j.jad.2020.09.027

Резник, Б. (2019, 24 января). Александрия Окасио-Кортес говорит, что ИИ может быть предвзятым. Она права. Vox. https://www.vox.com/science-and-health/2019/1/23/18194717/alexandria-ocasio-cortez-ai-bias

Тай, А.М.Ю., Альбукерке, А., Кармона, Н.Э., Субраманиапиллаи, М., Ча, Д.С., Шеко, М., Ли, Ю., Мансур, Р., и Макинтайр, Р.С. (2019). Машинное обучение и большие данные: значение для моделирования заболеваний и терапевтических открытий в психиатрии. Искусственный интеллект в медицине, 99. https://doi-org.ezproxy.umgc.edu/10.1016/j.artmed.2019.101704

Танзи, А. (2019). Уровень самоубийств среди подростков и молодых людей в США растет. Bloomberg.Com, N.PAG. https://search-ebscohost-com.ezproxy.umgc.edu/login.aspx?direct=true&db=heh&AN=139183166&site=eds-live&scope=site.