Большой вопрос! Должен сказать, что как специалист по информатике мне задают этот вопрос чаще, чем вы ожидаете.

Я также должен признаться, что немного съеживаюсь каждый раз, когда слышу это.

Это связано с тем, что это классический пример некорректно поставленного вопроса. Один без окончательного ответа; главным образом потому, что он будет опираться на наши личные философские мысли.

Понимание вопроса

Давайте начнем с одной и той же страницы, когда дело доходит до значения этого вопроса. Простая формулировка уже создает проблему. Более половины слов не имеют четкого определения.

Итак, давайте рассмотрим это шаг за шагом:

- «Может»: просто означает, что исполнительный механизм может выполнять действие. Это также самое простое слово в предложении. Пока никаких сюрпризов.

- «Компьютеры»: большинство людей может подумать, что это слово само собой разумеющееся. Это означает устройство, на котором я пишу это. Однако это определение зависит от того, что кто-то из отдела маркетинга решил назвать компьютером.

Что не очень полезно, поскольку сюда не входят ваш смартфон, умные часы, умная кофемашина для приготовления эспрессо и т. Д. Итак, пока давайте определим компьютер как любую машину, которая может быть запрограммирована с помощью * Тьюринга. Полный * Интерфейс.

Ваш ноутбук, смартфон и Майнкрафт: все компьютеры!

И, наконец, самый сложный:

- «Думай»: читатель сразу же заметит, что у слова «думать» есть нечеткие края. Могут ли собаки думать? Конечно! Могут ли растения думать? Не похоже, чтобы они это делали; однако мы не можем исключить это окончательно. Подсолнухи действительно движутся лицом к солнцу и собирают больше света. Кто может сказать, что это не результат мышления?

То, что мы пытаемся выразить словом «думать», не обязательно является биологическим процессом, а просто существованием сознательной «мысли». И я действительно ценю иронию определения слова с самим собой.

Но мы ищем самосознания.

Итак, пока мы свели наш вопрос к следующему:

Способен ли компьютер осознавать себя?

Самосознание в компьютере

Конечно, когда мы говорим, что компьютер самосознает, мы не говорим, что само оборудование самоосознает, а скорее программа, работающая на нем.

Имея это в виду, я хотел бы задать вам простой вопрос:

print “I think, therefore I am”

Является ли эта простая программа на Python самооценкой? В конце концов, он заявляет о своем существовании. Разве этого недостаточно, чтобы считаться вдумчивым?

Теперь вы можете подумать:

"Подожди. Меня не волнует, думает ли печатный оператор.
Ответьте на реальный вопрос: возможен ли Скайнет?
Захватит ли мир искусственный интеллект? »

Если вы боитесь программы, которая попытается уничтожить вас, как только заметит, что вы ее боитесь: вам даже не нужен искусственный интеллект.

Вы представляете управляемую систему с разомкнутым контуром. Так же, как кондиционер:

while True:
    if humanFearIndex > 0.3: # considered to be a safe amount of fear
        killHumans()
    else:
        print “All Hail Skynet!”

Но, конечно, ни одному программисту и в голову не пришло бы написать что-то подобное, так что мы в безопасности ...

«Но разве искусственный интеллект не мог бы написать сам этот фрагмент?»

No.

«Но что, если бы это было возможно?»

Хорошая точка зрения! Итак, давайте поговорим о состоянии дел в области искусственного интеллекта.

Искусственный интеллект и машинное обучение

Шутки в сторону: мы действительно уже пришли к серьезному выводу. Чтобы машина могла свободно мыслить, как человек, она должна иметь возможность создавать новое поведение с нуля, просто существуя.

Подобная программа должна не только понимать, что ей нужно, но также предлагать решение и модифицировать себя, чтобы иметь возможность выполнять это.

«И можем ли мы сделать это с помощью машинного обучения?»

Ну не совсем. Видите ли, машинное обучение, хотя и звучит пугающе и сложно, преследует простую цель. Узнавайте закономерности. И делаем это по классификации.

Идея такая. Если я хочу узнать, например, на основе некоторой информации, является ли фрукт яблоком или бананом, я могу просто скормить компьютерным примерам и позволить алгоритму распознать шаблон.

Например, после кормления следующая таблица:

| Color | Width | Height | Fruit |
| — — — -|: — — — :|: — — -:| — — -:|
| #f46542 | 9.5 cm | 9.3 cm | Apple |
| #f45641 | 9.7 cm | 9.5 cm | Apple |
| #f1f441 | 4.2 cm | 25.3 cm | Banana |
| #eef441 | 3.9 cm | 23.1 cm | Banana |

для реализации алгоритма k-ближайших соседей он создавал бы 5-мерное пространство (красное, зеленое, синее, ширину и высоту). И в этой системе координат нарисуйте четкие границы того, какая категория лучше всего подходит к каким координатам, вычислив, насколько близки данные примеры (с использованием евклидовой нормы).

В этом случае он, вероятно, классифицирует все, что выше 15 см, как банан.

Итак, теперь, имея достаточно данных, эта программа должна уметь успешно различать два фрукта. Но достаточно ли этого, чтобы компьютер понял, что ему нужно?

И да и нет. Машинное обучение отлично подходит для распознавания закономерностей, потому что оно отлично подходит для интерполяции данных на основе того, на чем оно было обучено.

Если бы вы дали предыдущий пример грейпфруту, его бы упрямо назвали яблоком. Потому что он не понимает, что такое грейпфрут. Экстраполяция по-прежнему является серьезной проблемой для числовых вычислений, не говоря уже об обучении.

Поэтому нам нужно изменить алгоритм машинного обучения, чтобы понимать, когда он сталкивается с чем-то, чего не знает. Это можно сделать, классифицируя все, что расстояние до ближайшего соседа превышает определенный порог, как неизвестный случай.

И, применяя усиленное обучение, этот алгоритм должен иметь возможность изучать новые случаи. Где компьютер будет вознагражден за благоприятный исход. И, следовательно, научится их воспроизводить.

Где тогда Скайнет?

Все это звучит очень правдоподобно, но мы подошли к истинной проблеме создания самосознающего ИИ. Кто определяет благоприятный исход? Кто объяснит алгоритм, если отключение - это хорошо или плохо?

Должны ли мы затем применить дополнительный уровень обучения, чтобы определить, какие результаты следует воспроизвести? Теперь ясно, что, идя по этому пути, мы всегда будем добавлять все больше и больше уровней обучения, даже не придавая этой машине какой-либо цели.

Как машина может экстраполировать, что она должна делать, если она не может предвидеть и, возможно, модифицировать себя во время выполнения, если она не знает, чего хочет?

Так? Могут ли компьютеры думать?

Ответ - да, возможно, нет. Я не знаю. Но если и могут, значит, вы не так «думаете».

TL;DR?

Могут ли компьютеры думать? Возможно нет.