ИИ имеет невероятные перспективы на будущее, но это будущее скомпрометировано отсутствием критического мышления со стороны программистов и тренеров.

ИИ открыл мир возможностей, очень похожий на новый Эдемский сад, где мы — невежественные люди, исследующие окружающую среду за пределами нашего понимания. В этом мире, который мы создаем, одной из центральных черт его должна быть способность ошибаться людей. Именно над этим недостатком мы должны продемонстрировать силу, рост и новую компетентность, и мы должны помнить одну вещь; мы не можем знать ответы, если не знаем вопросов.

Вопросы кажутся нам простыми, и наше эго бледнеет при мысли о том, что мы, возможно, необъяснимо пропустили какой-то шаг в нашем процессе построения по отношению к алгоритмам. Но ошибки — это именно то, с чем мы сталкиваемся, и требуется смирение или лучшее критическое мышление, чтобы избежать неблагоприятных результатов. Мы переживаем новый период эволюции.

Критическое мышление — это не только необходимое условие для того, чтобы стать знатоком алгоритмов; это могло быть потеряно где-то в миксе. Каков один из методов повышения этого необходимого навыка?

Структура навыков критического мышления Модели RED имеет три основных показателя, включая (1) признание предположений; (2) Оценить аргументы; и (3) Сделать выводы. Ожидается, что структура навыков критического мышления модели RED и ее индикаторы помогут стимулировать развитие навыков критического мышления и измерять навыки критического мышления.

Обзор модели RED с примерами бизнес-задач, требующих критического мышления, доступен здесь. Загружаемый PDF-файл также включает 50 идей по улучшению вашего критического мышления.

В дополнение к этой модели существует загружаемая таблица с вопросами/подсказками, которые помогут подойти к любому вопросу или проблеме.

Когда алгоритм ошибается

Существует убеждение, что компьютеры и их алгоритмы превосходят людей, потому что они могут обрабатывать так много информации очень быстро — быстрее, чем мы могли бы за месяцы или даже годы. В этом заключается основная проблема нашей системы убеждений и нашего предубеждения в отношении алгоритмов. Когда это неправильно, результат может быть катастрофическим для некоторых людей, как мы видели.

Алгоритм, о котором идет речь, исправительное управление правонарушителем для альтернативных санкций (COMPAS), был разработан для оценки риска рецидива обвиняемого, то есть потенциального риска того, что обвиняемый совершит преступление в будущем.

Большой анализ методов и результатов КОМПАСа провело издание «Politico. После многократного статистического анализа различных частей алгоритмов, а также наборов данных, которые могли быть использованы, результаты оказались весьма показательными.

Как и следовало ожидать, «обвиняемые с отсутствием были в два раза чаще, чем белые ответчики, ошибочно отнесены к группе с более высоким риском насильственного рецидива, а белые рецидивисты были ошибочно отнесены к группе с низким риском на 63,2% чаще, чем чернокожие ответчики ».

Это только одна иллюстрация того, как неправильное использование статистики может привести к изменяющим жизнь расчетам, которые смягчают положение определенных людей.

Действителен он или нет, алгоритм COMPAS используется для предоставления быстрых, если не точных данных о потенциально насильственных правонарушителях. Это модель неэффективности, а не эффективности. Согласно презентации на TED Talks Питера Хааса, причина, опять же, для его использования в ситуациях уголовного правосудия для определения будущих уровней насилия, заключается в большом количестве дел, которые должны быть отправлены быстро.

Поскольку алгоритм находится в частной собственности (и используется примерно в 13 штатах для принятия решений в области уголовного правосудия), исходный код никому не доступен для проверки из-за закона о коммерческой тайне, что вызывает опасения. Как бы невероятно это ни звучало, никто не знает, какие наборы данных использовались для создания КОМПАС.

Система уголовного правосудия — лишь один пример того, как алгоритмы могут причинить неисчислимый хаос в жизни людей. Другие случаи включают попытку получить ссуду на дом, собеседование при приеме на работу, право на получение государственных пособий или даже остановку на шоссе за нарушение правил вождения.

Хаас спросил: «Хотели бы вы, чтобы публика могла проверить алгоритм, который пытается сделать выбор между тележкой для покупок и детской коляской или беспилотным грузовиком, так же, как алгоритм собаки/волка пытался выбрать между собакой и волком

Последнее различие примечательно, поскольку при обучении алгоритма была допущена ошибка при идентификации собаки и волка. Причина заключалась в том, что на тренировках показывались только волки на снежном фоне. Любое собачье животное не на снежном фоне считалось собакой. Критическое мышление было проблемой, которой здесь не хватало.

Ответы и заданные вопросы

В своей книге Атлас ИИ, власти, политики и планетарных издержек искусственного интеллекта Кейт Кроуфорд использует известную историю иллюзий и предубеждений (лошадь Умный Ганс) при обсуждении ИИ.

«История Ганса теперь используется в машинном обучении как предостерегающее напоминание о том, что вы не всегда можете быть уверены в том, что модель узнала из данных, которые ей предоставили. Даже система, которая на первый взгляд показала впечатляющие результаты при обучении, может делать ужасные прогнозы, когда она представлена ​​новыми данными из мира».

Что касается алгоритмов распознавания лиц, Кроуфорд сомневается в полезности включения криминальных фотографий. Тот факт, что фотографии доступны для ввода в наборы данных, указывает на безумие, связанное с созданием набора данных, а не с вопросом о том, что должно в него входить.

Лихорадочный сбор изображений для баз данных превратился в бездумность, которая никогда не подвергается сомнению, потому что программы требуют и программы получают то, что требуют.

Тем не менее, сейчас общепринятой практикой для первых шагов создания системы компьютерного зрения является извлечение тысяч или даже миллионов изображений из Интернета, создание и упорядочивание их в ряд классификаций и использование этого в качестве основы для того, как система будет работать. воспринимать наблюдаемую реальность. Эти обширные коллекции называются обучающими наборами данных, и они представляют собой то, что разработчики ИИ часто называют «наземной истиной».

Подвергается ли когда-либо сомнению завершенный алгоритм из Набора данных о множественных встречах и других и происходит ли отсеивание обучающих изображений или данных, которые могут каким-то образом не соответствовать миссии? На самом деле, какова миссия и какие предубеждения были включены в коллекцию? Является ли поиск изображений в Интернете наиболее подходящим методом сбора данных?

Можем ли мы хотя бы на данном этапе решить эти основополагающие вопросы? Кому будет нанесен ущерб, если оставить эти вопросы нерешенными? Какие вопросы не были заданы и на которые не были даны ответы? Где мы потерпели неудачу?

https://www.amazon.com/Patricia-Farrell/e/B001HMSWYQ