ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ, БОЛЬШИЕ ДАННЫЕ, МАШИННОЕ ОБУЧЕНИЕ, ПРЕДИКТИВНЫЙ АНАЛИЗ.

Мы все слышали об увеличении количества этих модных словечек в последнее время (или, по крайней мере, вы должны были услышать, если вы были внимательны), но что, черт возьми, все это значит?

Короче говоря, это неизбежное и страшное будущее. Могли бы вы представить себе мир, в котором мы создаем программное обеспечение, превосходящее человеческие возможности? Что ж, мы живем в этом мире, и Google является ведущим первопроходцем.

КАК?

Ну, во-первых, поисковый гигант всегда был пионером. Алгоритм поиска берет первое набранное слово и использует прогнозный анализ для заполнения предложений на основе ожидаемых ключевых слов. Во-вторых, в более стратегическом плане они купили почти все компании, занимающиеся машинным обучением и робототехникой, такие как Boston Dynamics, NestLabs, Bot & Dolly, Meka Robotics и многие другие! В-третьих, их возглавляет Рэй Курцвейл. Я даже не знаю, с чего начать с этим парнем. Он сумасшедший. Он гений. У него 30-летний опыт точных предсказаний. Он чертовски прав почти во всем. Он и его команда создают мозг Google, охватывающий как аппаратные, так и программные требования, чтобы в конечном итоге воспроизвести то, как наши межнейронные связи формируются и активируются в режиме реального времени. В его словах :Информация определяет вашу личность, ваши воспоминания — ваши навыки. И это действительно информация. В конечном итоге мы сможем запечатлеть это и воссоздать.

Звучит СТРАШНО? НУ ДОЛЖНО.

Но опять же, это не совсем новое явление. Технологическая сингулярность (гипотеза о том, что искусственный интеллект сольется с человечеством) впервые возникла в 1958 году и, по словам Курцвейла, сбудется в 2045 году.

ДУМАЕТЕ, ЧТО ЭТО СЛИШКОМ ФУТУРИСТИЧЕСКИ, ЧТОБЫ ОБ ЭТОМ ПРЯМО СЕЙЧАС ЗАБОТИТЬСЯ?

Подумайте еще раз. Вы же не станете ждать, пока грабитель проникнет в ваш дом, прежде чем принять меры предосторожности? Вот почему у нас есть замки, системы сигнализации и мохнатые четвероногие существа, лающие на звук дверного звонка. Поэтому важно, чтобы вы начали делать это сейчас с искусственным интеллектом.

ВСЕ НАЧИНАЕТСЯ С ПРИЛОЖЕНИЙ ДЛЯ ОБМЕНА СООБЩЕНИЯМИ И ЧАТ-БОТОВ.

Все больше людей тратят больше времени на приложения для обмена сообщениями, чем на приложения для социальных сетей.

Боты создаются для выполнения определенной услуги. Например, помощь покупателю в совершении покупки или ответ на вопрос службы поддержки без участия человека на другом конце.

В самой упрощенной форме это сервис, основанный на правилах (очень простых алгоритмах), которые люди используют для взаимодействия через интерфейс чата. В более сложных случаях он использует искусственный интеллект для выполнения тех же или более сложных услуг. И построить его может любой. В буквальном смысле вам даже не нужно быть экспертом в кодировании. (Оооооооооооооооо, мистер Ватсон!)
Это создает огромный потенциал для бизнеса, а также значительно облегчает жизнь пользователю.

ТАК В ЧЕМ ПРОБЛЕМА?

Ну есть две основные проблемы. В прямом смысле рост искусственного интеллекта порождает киберпреступность. В долгосрочной перспективе он может развиться до такой степени, что мы больше не сможем контролировать машины, которые мы изначально создали.

НЕПОСРЕДСТВЕННЫЙ РОСТ ПРЕСТУПНОЙ АКТИВНОСТИ

Возьмите подразделение искусственного интеллекта Google, DeepMind. Они заявляли, что нашли способ воспроизводить и имитировать гораздо более естественную и человечески звучащую синтезированную речь лучше, чем любая другая система преобразования текста в речь. И, как и любое массовое технологическое явление, вы знаете, что хакеры-преступники не слишком отстают. Итак, тот звонок, который вы получили от своего брата на прошлой неделе с просьбой одолжить ему немного денег… это действительно был ваш брат? Или это был… осмелюсь сказать, безликий преступник, обманчиво похожий на него?

Итак, теперь с технологиями мы можем 1) воспроизвести синтетическую речь, чтобы она звучала как человеческая, и 2) создать искусственный мозг, чтобы улавливать и реагировать на наши мысли и эмоции. Следующая остановка — разговор с мертвыми. Недавно я посмотрел «Сейчас вернусь», эпизод жуткой и очень футуристической драмы Черное зеркало, и подумал, что это за корова ужасный! В этом эпизоде ​​женщина теряет своего жениха в автокатастрофе и подписывается на услугу, которая с помощью… подождите… искусственного интеллекта… создает цифровой аватар парня, который на основе его манер и поведения точно воспроизводит его личность.

И это существует. Называется Лука. Главный чат-бот AI-стартапа был создан для рекомендаций ресторанов. Но после того, как соучредитель Евгения Куйда потеряла дорогого друга, она расширила его, чтобы создать мемориального бота. Бот, который позволяет вам разговаривать со своим умершим другом, как если бы он не умер, полагаясь на настоящие сообщения, посты и другую цифровую эфемеру, которую они оставили.

ЧЕГО-ЧЕГО?!

Это жутко неэтично. Это хлопотно, это просто неправильно. Величайшее изобретение жизни — смерть. Это суть «чувства», которое определяет наше существование в человечестве.Использование искусственных нейронных сетей для имитации способности человеческого мозга обучаться и распознавать закономерности в изображениях, аудио, тексте и других формах данных. избавляться от печали аморально.

ЕСТЕСТВЕННО, Я ДОЛЖЕН ПОПРОБОВАТЬ ЭТО

Звучит УЖАСНО! Не разговаривай со мной, я тебя даже не знаю!

Ирония смерти Мазуренко заключалась в его грандиозных планах на будущее. Он жаждал увидеть день сингулярности и теперь является побочным продуктом вечной жизни. Возможно, именно это имел в виду Курцвейл, когда говорил, что мы, люди, достигнем вечности.

УСКОРЕНИЕ ВПЕРЕД К ПОТЕРИ КОНТРОЛЯ

Хорошо. Давайте поговорим о внешней политике очень быстро (не говоря о политике). Понимание динамики взаимодействия в глобальном мире — сложная концепция, особенно если вы собираетесь использовать узкий теоретический подход, такой как неореализм или неолиберализм. Чтобы ясно развить понимание международных отношений, мы должны выйти за рамки простого и конкретного пути, который может предложить реализм, и исследовать более социально конструируемые факторы.

Ключом к интерпретации внешней, внутренней или просто человеческой политики является понимание влияния норм на данного актора. То, что одна страна или негосударственный субъект считает нормой, либо разрешает, либо ограничивает определенные действия. Акторы используют нормы инструментально, либо манипулируя и изменяя нормы, либо подчиняясь таким нормам, чтобы формировать свои интересы, а не быть заложниками конкретной нормативной структуры. Но если мы научим наши компьютеры думать таким образом, не усугубит ли это риск потери контроля над этими роботами?

Ирвинг Гоффман, влиятельный социолог, в 1959 году писал, что внутренние нормы представляют собой окружающую среду и идентичность, какими они представляются действующему лицу, а внешние нормы представляют ситуации или поведение. Эти нормы служат функциональными инструментами для обоснования социального поведения, но, поскольку на действующих лиц могут влиять несколько норм, трудно предсказать, какие нормы окажут наибольшее влияние. Конечно, если вы не используете искусственный интеллект для обработки таких прогнозов.

У актеров должен быть процесс осмысления мира, но, что более важно, у них должен быть процесс передачи этих мысленных представлений другим. Этот процесс придания смысла миру создает нормы, оправдывающие поведение актора. Именно во время этого процесса мы взаимодействуем с другими участниками в формировании целей и взаимодействии, независимо от того, соответствуют ли они нашей повестке дня или нет. По этой причине крайне важно, чтобы компьютеры, которым мы обучаем, имели цели, соответствующие нашему видению. Если нет, то мы наблюдаем уничтожение человечества.

Мы уже слышали это раньше. Следующая катастрофическая мировая война будет кибервойной. Но пределом человеческого воображения был технологический, апокалиптический кризис, а не глобальная гонка вооружений ИИ, о которой нас предупреждают Хокинг, Маск и Возняк. Они почти заменяют судей на ИИ, заменят ли они и военных на ИИ? Я думаю, мы все предпочли бы, чтобы способность машины убивать независимо от человеческого контроля НЕ происходила.

ТАК ЧТО ЖЕ НАМ ДЕЛАТЬ?

Постройте подземный убежище на окраине Небраски и приготовьтесь к роботизированному апокалипсису.