AI в нашем изображении

Искусственный интеллект (ИИ) замечателен. Прогресс, который мы наблюдаем в этой области за такой короткий промежуток времени, просто ошеломляет. В 2005 году компания Boston Dynamics создала «Большого пса», большого робота, способного двигаться в стиле паркура, ProFound AI выпустила программное обеспечение для обнаружения рака в конце 2018 года, а совсем недавно OpenAI выпустила большую языковую модель, известную как GPT-2. Эта история возникла из-за моей работы с GPT-2.

GPT-2 - это ИИ, обрабатывающий язык, способный генерировать реалистичные отрывки текста либо случайным образом, либо на основе некоторого заданного ввода. ИИ настолько преуспел в этом, что OpenAI фактически отказался выпустить самые большие (и самые продвинутые) из своих моделей из опасения злоупотребления.

В рамках своего магистерского проекта я сейчас работаю над преобразованием GPT-2 в ИИ, способный создавать юмористические шутки. Чтобы создать прочную основу для своего проекта, я внимательно следил за статьей Мартина Фролова, поскольку он работал над тем же. Его удивительную статью можно найти здесь. Как и Мартин, я столкнулся с очень тревожной проблемой ... шутки, которые я выбрал для обучения своего бота-Джокера, были совершенно неуместными. Таким образом, как и ожидалось, шутки, созданные моей натренированной моделью, также были грубыми и неуместными. Это заставило меня задуматься: если цель искусственного интеллекта состоит в том, чтобы внедрить в компьютеры навыки рассуждения, аналогичные человеческим, как нам это сделать, не привнося при этом предрассудки, предубеждения или другие стереотипы в наши машины.

Знаю, знаю, это просто плохие шутки. Не нужно бить тревогу, правда? Я прошу не согласиться, поскольку считаю, что это прекрасный пример. Я получил этот набор данных шуток (подробно описанный в статье Мартина) с сайта Kaggle. Эти шутки должны были исходить откуда-то кем-то, кто считал их забавными. Они думают, что расистская шутка смешна, а затем я, неосознанно тренируя ИИ на этих шутках, в результате получается ИИ, который также считает расистские шутки смешными.

Гораздо больше примеров, с гораздо более высокими ставками, можно найти в таких областях, как предсказательная полицейская деятельность. Сегодня в залах судебных заседаний используется упреждающая работа полиции, чтобы рекомендовать приговор или выявлять тех, кто с наибольшей вероятностью совершит повторное преступление. Прогнозирующее правосудие долгое время находилось в центре дебатов об этическом ИИ, поскольку используемые алгоритмы склонны применять расовые предубеждения в своих суждениях.

Не только как разработчики, но и как общество, быстро интегрирующееся с ИИ, мы все несем ответственность за то, чтобы искусственный интеллект приобретал лучшие человеческие навыки мышления без каких-либо возможных человеческих предрассудков, которые могут возникнуть с ним.