С 3 мая по 1 июня 2016 г.

Предпочитаете получать это как информационный бюллетень по электронной почте? Зарегистрируйтесь здесь!

Напоминание №1: осталось всего 4 недели до нашего 2-го ежегодного Playfair AI Summit 2016 с участием 300 человек в Лондоне, на котором дюжина блестящих ученых-исследователей и предпринимателей продемонстрируют эффективные применения ИИ в реальном мире.

Напоминание №2. Сейчас я соорганизую London.AI, городскую встречу по прикладному искусственному интеллекту, посвященную продуктам, с участием 100 инженеров, исследователей, предпринимателей, владельцев продуктов, дизайнеров и инвесторов. Подпишитесь на новости!

Новости, тенденции и мнения в сфере технологий

Здравоохранение, автомобили и цифровые помощники

Сделав первую полосу WIRED в следующем месяце, Кейд Метц пишет демонстрацию силы на DeepMind AlphaGo. Хотя уже кажется, что AlphaGo - это древняя история в быстро меняющемся мире искусственного интеллекта, я думаю, что это убедительный аргумент в пользу того, что взаимодействие человека и машины может помочь нам улучшить наше собственное мастерство в сложных задачах.

Google DeepMind также попал в заголовки новостей о соглашении об обмене данными, которое они подписали с тремя больницами, входящими в Национальную службу здравоохранения Великобритании. Данные о 1,6 миллионах пациентов включают в себя живые и исторические медицинские записи за 5 лет. Его заявленное использование предназначено для клинической аналитики, обнаружения, диагностики и поддержки принятия решений в реальном времени, с первоначальным акцентом на приложение Streams компании для измерения риска острого повреждения почек. . В то время как многие участвовали в горячих дебатах по поводу конфиденциальности данных (см. Этот заголовок, любезно предоставлено The Daily Mail), я считаю, что медицина должна двигаться к мониторингу здоровья в реальном времени и прогнозированию будущих состояний. Обмен данными будет необходимой сделкой, которую мы должны сделать так, чтобы медицина могла превратиться в проактивную, а не реактивную.

Перейдя на автономное вождение, директор Tesla по программам автопилота Стерлинг Андерсон объявил, что их парк автомобилей с автопилотом вместе проехал 780 миллионов миль, из которых 100 миллионов с задействованным автопилотом. Чтобы представить это в контексте, Tesla теперь собирает за день больше данных (камера, GPS, радар и ультразвук), чем программа Google регистрировала с момента ее создания в 2009 году.

Большие новости в мире виртуальных помощников! Viv, скрытый AI-помощник, созданный основателями Siri, был наконец представлен публике на TechCrunch в Нью-Йорке (смотрите здесь) и Pioneers в Вене. Это примечательно, потому что Viv использует другой подход к Siri или Cortana, которые команда называет динамически развивающейся системой когнитивной архитектуры. Короче говоря, Viv слушает пользовательский запрос, понимает намерение, анализируя действия и концептуальные объекты, чтобы на лету создать последовательный план действий. Следует отметить, что Viv использует экосистему сторонних сервисов для получения знаний для выполнения пользовательского запроса. Если нам нужно полагаться на цифровых помощников для каждого возможного варианта использования, который мы можем себе представить, этот подход, безусловно, более масштабируемый, чем жесткое кодирование связей между предопределенными словами / фразами, знаниями в предметной области и онтологиями.

Более или менее одновременно появились слухи о том, что Apple выпустит Siri SDK для разработчиков и является конкурентом Amazon Alexa и Google Home. Предполагается, что эти продукты, которые, возможно, будут анонсированы на WWDC через две недели, будут использовать усовершенствованную версию Siri, которая использует технологию VocalIQ для сохранения семантического контекста между разговорами. Посмотрите, как основатель VocalIQ Блейз Томпсон представляет свою систему в редком выступлении на Playfair Capital AI Summit 2015. Apple необходимо резко активизировать свои исследования и разработки в области ИИ, чтобы иметь шанс конкурировать в мире, где ИИ будет лежать в основе нашего цифрового опыта.

ИИ занимает центральное место в Google I / O

  • Джефф Дин (Google Brain), Джон Джаннандреа (Поиск) и Апарна Ченнапрагада (Google Now) вышли на сцену с Томом Симоните (MIT Tech Review), чтобы обсудить Видение Google для машинного обучения (видео).
  • После нескольких лет исследований и разработок компания представила запатентованную специализированную интегральную схему (ASIC), Tensor Processing Unit, созданную для работы с TensorFlow. Хотя технические характеристики не являются общедоступными, они заявляют о 10-кратном увеличении производительности на ватт (непонятно, в чем именно!). Итак, Google - лучшие на ASIC, Intel - на FPGA, а NVIDIA - на длинных графических процессорах!
  • Как Сундар упомянул в своем письме акционерам в прошлом месяце, Google еще больше углубился в мир цифровых помощников, выпустив свой довольно простенький Google Assistant. Он выходит за рамки Google Now в том, что обеспечивает постоянное взаимодействие между устройствами и контекстом для поддержки набора продуктов Google, включая Google Home (a-la -Amazon Echo) и Allo (обмен сообщениями). Добро пожаловать, понимание контекста!

Интересные факты дня:

  • 20%: доля запросов, сделанных через приложение Google Android, представляет собой голосовые запросы по сравнению с текстовыми.
  • 140 млрд: слов, переводимых за день с помощью Google Translate, который поддерживает более 100 языков, по сравнению с всего 2 десятью годами ранее. Для сравнения: Facebook обрабатывает 2 млрд переводов в день (примерно 25 млрд слов) на 40 языков, используя собственные технологии (отказавшись от Bing!).
  • 200 млн: количество активных пользователей в Google Фото в месяц и количество меток, автоматически примененных к фотографиям пользователей. Блестящая демонстрация искусственного интеллекта.

Что оптимизировать при создании искусственного интеллекта и безработицы

Джошуа Блум, профессор Беркли и соучредитель Wise.io, поднимает вопрос, как мы должны оптимизировать цепочку создания стоимости для создания систем искусственного интеллекта. В то время как современные исследования и разработки в области искусственного интеллекта сосредоточены на оптимизации точности, мы должны учитывать время на обучение, время на прогнозирование, размер модели и время загрузки. В самом деле, мы должны сформулировать компромисс между этими поддающимися количественной оценке переменными, чтобы создать более мелкие, быстрые, более стабильные и интерпретируемые модели. По мере того, как все больше ИИ переходит в производство и получает ценность в долларах, это приобретает первостепенное значение.

Говоря о создании ИИ, Мориц Мюллер-Фрайтаг делится 10 стратегиями создания обучающих данных, чтобы запустить Святой Грааль в искусственном интеллекте: маховик эффекта сети передачи данных. Я считаю, что наиболее действенной и согласованной стратегией является создание вертикально интегрированных продуктов искусственного интеллекта с постоянным взаимодействием с пользователем. Здесь набор данных формируется сам, в то время как пользователь формирует привычное поведение. Беспроигрышный вариант.

Помещая опасения по поводу безработицы, вызванной технологиями, в контексте, Луи Анслоу курирует замечательную подборку исторических цитат, иллюстраций и событий на эту тему с 1920-х годов до наших дней. Можно утверждать, что роботы собирались забрать все рабочие места более 200 лет!

Исследования, разработки и ресурсы

Google Release SyntaxNet, фреймворк нейронной сети с открытым исходным кодом, реализованный в TensorFlow, который обеспечивает основу для систем Natural Language Understanding (NLU) (спасибо Cole Winans за внимание!). Машины не в лучшем виде, когда дело доходит до разрушения синтаксиса человеческого языка, который может быть заведомо неоднозначным. Действительно, предложение из 20–30 слов может иметь десятки тысяч потенциальных синтаксических структур. В SyntaxNet предложение обрабатывается нейронной сетью с прямой связью (без повторения) для вывода распределения возможных синтаксических зависимостей с каждым инкрементным словом (гипотезы). Используя алгоритм эвристического поиска (поиск луча), SyntaxNet запускает несколько частичных гипотез по мере обработки каждого слова и отбрасывает маловероятные гипотезы только тогда, когда рассматриваются другие гипотезы с более высоким рейтингом. Синтаксический анализатор английского языка SyntaxNet, Parsey McParseface, является наиболее производительной моделью, превосходящей в некоторых случаях точность человеческого уровня (см. Результаты в статье).

Команда исследователей из Технологического института Джорджии представила алгоритмы управления, которые позволяют 1/5 реплике раллийного автомобиля ездить на грани того, что в противном случае было бы ограничением управляемости на грунтовой дороге, сохраняя при этом стабильность. Автомобиль AutoRally оснащен инерциальным блоком измерения, 2 фронтальными камерами, GPS, датчиками вращения на каждом колесе для измерения скорости, процессором Intel Quad-core i7, графическим процессором Nvidia, 32 ГБ оперативной памяти и не требует других внешних датчиков или вычислительные ресурсы. Алгоритмы транспортного средства сначала обучаются нескольким минутам пилотируемого движения по трассе. Затем сенсорные измерения используются для объединения управления и планирования с целью обеспечения автономного вождения - эти забавные видеоролики демонстрируют его агрессивные способности вождения. В частности, транспортное средство оптимизирует свою траекторию на 2,5 секунды в будущее, вычисляя оптимальную траекторию для поддержания устойчивости при заданной скорости каждые 16 миллисекунд на основе средневзвешенного значения 2560 различных возможных траекторий. Эта работа может гарантировать безопасность беспилотных автомобилей, которые едут по нашим дорогам, при движении в сложных условиях.

Одноразовое обучение с помощью нейронных сетей с расширенной памятью, Google DeepMind. Изучение нового поведения путем получения достоверных выводов из небольших объемов данных (однократное обучение) - особенно сложная задача для машины, но тривиальная для человека. Во многом это связано с тем, что модели глубокого обучения обычно полагаются на градиентную оптимизацию для настройки весов для каждого нейрона в сети. Этот подход требует большого количества данных и итеративных проходов по сети. В применении к однократным обучающим задачам эта стратегия работает плохо. Вместо этого двухуровневый подход к обучению (мета-обучение) считается более подходящим для поставленной цели. Здесь авторы показывают, что нейронные сети с объемом памяти (например, нейронная машина Тьюринга DeepMind и сети памяти) способны к мета-обучению, применяемому к задаче классификации Omniglot (1600 классов с несколькими примерами на класс). Сеть работает лучше, чем современная, и даже может превзойти людей. Он делает это, медленно изучая полезное представление необработанных данных, а затем использует внешнюю память для быстрого связывания новой информации.

Алгоритмическая прозрачность через количественное влияние входных данных, Университет Карнеги-Меллона. В последнем выпуске я представил статью, в которой аргументировалось, что алгоритмическая подотчетность и объяснимость модели при использовании ИИ для принятия важных решений в реальном мире, особенно в таких областях, которые не допускают сбоев, таких как здравоохранение или оборона. Здесь авторы сообщают о группе показателей количественного влияния на исходные данные (QII), которые описывают степень, в которой особенности модели влияют на их выходные данные, с учетом корреляции входных данных и индивидуальных / комбинаторных эффектов. QII требует доступа к рассматриваемой модели и входным данным с хорошо понятной семантикой, а именно кредитным решениям и онлайн-персонализации, но не к изображениям или видео. Чтобы измерить влияние данного входа на интересующий результат (например, результат классификации), авторы заменяют фактическое значение каждого входа модели случайным независимо выбранным значением и вычисляют вероятности того, что этот вход (фактическое значение или случайное значение) имеет решающее значение для интересующей классификации.

Несколько быстрых упоминаний:

  • Google Brain и OpenAI публикуют статью Неконтролируемое обучение для физического взаимодействия посредством прогнозирования видео, в которой описывается модель прогнозирования, которая выводит движение необработанных немаркированных пикселей видео относительно внешнего вида пикселей в предыдущих кадрах. Обучая эту модель на видео с 50-тысячным движением робота, сеть может делать долгосрочные прогнозы на основе этих различных действий (см. Видео здесь). Эта работа имеет значение для обучения агентов в реальном мире без маркированных данных.
  • Оксфорд, CIFAR и Google DeepMind исследуют тему Обучение общению с помощью глубокого многоагентного обучения с подкреплением. Настройка включает в себя несколько агентов с частичной наблюдаемостью и коллективной целью максимизировать ту же самую дисконтированную сумму вознаграждений. Используя два метода, один из которых является сквозным обучаемым внутри каждого агента, а другой между агентами, авторы показывают, что несколько агентов могут изучать протоколы связи в сложной среде. это включает последовательности и необработанные входные изображения.
  • Андрей Карпаты опубликовал отличный пост о глубоком обучении с подкреплением, почему это так важно, о чем идет речь, как оно развивалось и может быть в будущем ».
  • Часть 1 и Часть 2 легко усваиваемого обзора Адама Гейтгея, исследующего основные концепции машинного обучения и глубокого обучения с помощью примеров кода и диаграмм.

Финансирование венчурного капитала и выход

Заключение сделок на сумму $ 355 млн (57 финансовых сделок и 13 приобретений), в том числе:

Предпочитаете получать это как информационный бюллетень по электронной почте? Зарегистрируйтесь здесь!

Что еще привлекло ваше внимание? Просто нажмите "Ответить"! Я активно ищу предпринимателей, создающих компании, которые создают / используют ИИ, чтобы переосмыслить то, как мы живем и работаем.