Могут ли машины думать? Как мы измеряем интеллект людей и технологий

Способность технологий выполнять сложные задачи хорошо известна. Но как это соотносится с человеческим интеллектом? В своей широко цитируемой статье 1950 года «Вычислительные машины и интеллект» Алан Тьюринг задал вопрос «Могут ли машины думать?» Математик предложил метод определения ответа с помощью «Игры в имитацию»: попросить машину убедить следователя-человека, что это человек, и даже более того, убедить следователя, что другой человек на самом деле является машиной. Благодаря популярности этой идеи в средствах массовой информации, теперь ее обычно называют тестом Тьюринга, и некоторые считают его настоящим испытанием на то, что ИИ побеждает людей.

В 2014 году чат-бот Университета Рединга по имени Юджин Густман успешно прошел тест Тьюринга, притворившись 13-летним мальчиком. Алгоритму удалось обмануть многих из 30 участвующих судей, где каждый судья получил полную свободу действий, чтобы спросить все, что он пожелает.

Судя по этому критерию, сингулярность ИИ может показаться неизбежной. Однако мы еще не только там. Машины плохо справляются с рассуждениями, причинно-следственными выводами и обобщенным мышлением. Alpha Go, возможно, превзошла человечность в настольной игре, основанной на правилах, но она не может адаптироваться к другим задачам в реальном мире, таким как человеческая беседа или завязывание шнурков. Алгоритм был специализированным или «слабым». О чем предупреждают писатели-фантасты, так это о «сильном» ИИ; ИИ, способный адаптироваться и обладающий обобщенным интеллектом, способный быстро обучаться и выводить правила в новых условиях.

Действительно ли тест Тьюринга измеряет интеллект?

Проблема в том, что тест не является достаточным барометром интеллекта, да и вообще барометром. У теста Тьюринга есть две проблемы: во-первых, тест не определяет опыт судей. Хорошо разбирающийся исследователь ИИ, вероятно, будет более эффективным в расшифровке того, является ли источник речи кремниевым или биологическим аппаратным обеспечением, и сможет поймать ИИ в ловушку с круговой логикой и призывами к эмпатии, которые ИИ сегодня все еще с трудом осваивают. Во-вторых, тест успешно измеряет силу слабого ИИ, а не сильного ИИ. Сегодняшние чат-боты впечатляюще способны эффективно и четко обрабатывать жалобы клиентов и банковские запросы и часто обманывают людей, заставляя их поверить, что они разговаривают с другим человеком. Но на многое другое они не способны. Они могут даже перейти на уровень разговоров на обычные повседневные темы, такие как политика и социальная жизнь. Это было бы замечательным достижением, но тест не требовал бы от того же ИИ выполнения других задач, таких как классификация изображений или игра в видеоигры. Хотя машинное обучение отлично справляется с этими задачами, использование одного и того же точно настроенного алгоритма для переключения между этими задачами по-прежнему недостижимо.

Поясним, машинное обучение — это не ИИ. ИИ — это отрасль информатики и философии, сосредоточенная на понимании того, как интеллект возникает из сложных механизмов. С другой стороны, машинное обучение — это когда системы запрограммированы на поиск собственных корреляций в наборах данных и улучшение своих моделей без явного программирования или «жесткого кода». Слово «обучение» может быть неправильным, потому что обучение человека — это не то, что делает машина. Он медленно, как правило, постепенно улучшает свою способность правильно угадывать вещи. Программе машинного обучения может потребоваться 100 изображений собак, прежде чем она сможет правильно идентифицировать одно из них. Человеку может понадобиться только один.

Что мы подразумеваем под «интеллектом»?

Когда мы рассматриваем «интеллект» машин, нам нужно сначала дать определение интеллекту, но, что более важно, «измерить» его. В недавней статье, написанной Франсуа Шолле, была предпринята попытка разработать план измерения интеллекта под названием «Измерение интеллекта». Работая в Google, Шолле разочаровался в том, что сообщество ИИ сосредоточилось на измерении навыков своих алгоритмов, а не на приобретении навыков как таковых.

Поначалу может показаться нелогичным игнорировать прямое мастерство алгоритмов. Человека, который хорошо разбирается в математике и может говорить на 5 языках, скорее всего, назовут умным. Однако это не лучшая мера интеллекта этого человека, а скорее его способности. Мы можем с полным основанием сказать, что она умна, потому что невообразимо, что она родилась свободно владеющей алгеброй, русским и китайским языками. В более широком смысле было бы глупо утверждать, что Alpha Go умна только на основании доказательств ее победы над лучшими талантами человечества в игре Go. Мы можем сделать это заявление только тогда, когда учтем метод приобретения им навыков: его собственный опыт.

Alpha Go впечатляет многих ведущих исследователей, потому что она сама научилась всем навыкам, которые ей понадобятся, чтобы конкурировать в игре Go. Он был едва жестко закодирован, то есть не был установлен набором правил и методов, которым нужно следовать, а скорее путем (множества) проб и ошибок. Эта идея, называемая обучением с подкреплением, состоит в том, чтобы использовать множество симуляций игр и позволить системе исследовать как можно больше различных стратегий, поощряя успешные стратегии и наказывая плохие. После миллионов итераций алгоритм будет настроен на успешную игру в данной игре. Мы можем сказать, что он «изучил» игру или «обучил» себя, но это означало бы, что он на самом деле понимает причины совершаемых им действий, а не просто распознает количественные вероятности при различных входных данных и реагирует наиболее эффективным ходом.

В этом примере алгоритм успешно освоил навык, так как до обучения с подкреплением он был бесполезен, а после оказался весьма способным, со всеми способностями, вытекающими из собственного опыта. Можно сказать, что это разумное поведение. Но мы должны признать здесь два недостатка. Во-первых, алгоритм, настроенный для игры в го, должен будет полностью переобучиться, чтобы играть в шахматы. Поступая таким образом, ему также придется отказаться от всех настроек для го, тем самым «забыв», как играть в го, чтобы играть в шахматы. Человеку это не нужно. Во-вторых, алгоритм научился только после многих лет игры в го в симуляциях, требующих огромной вычислительной мощности. В результате алгоритму требуется еще много-много игр, чтобы научиться эффективно играть в шахматы или го против человека. Таким образом, это «обучение» тому, как играть гораздо менее эффективно, чем человеку.

В настоящее время отсутствие переносимости алгоритмов приобретения навыков представляет собой проблему для ученых, стремящихся создать интеллектуальную систему, но также позволяет нам понять, чем интеллект не является: он не играет в видеоигру лучше, чем человек. Один навык важнее многих навыков, и, кроме того, наличие навыка важнее способности изучить другой навык. Если ИИ когда-либо будет считаться разумным человеком, ему предстоит пройти долгий путь.

Читать оригинал статьи: https://blog.genei.io/blog/can-machines-think-how-we-measure-intelligence-in-humans-and-technology

Посетите веб-сайт Genei: www.genei.io