Информационный бюллетень № 65 — Новый подход ведущего мирового эксперта по искусственному интеллекту

Грэм Лейн — 22 марта 2022 г.

Привет ,

Добро пожаловать в информационный бюллетень Nural, где вы найдете подборку статей, новостей и интересных компаний, посвященных тому, как ИИ используется для решения глобальных глобальных проблем.

Наша цель - убедиться, что вы всегда в курсе самых важных событий в этой быстро развивающейся области.

Упаковано внутри у нас

  • Могут ли генеративные потоковые сети преодолеть разрыв с человеческим интеллектом?
  • Стэнфордская оценка состояния ИИ
  • и Китай регулирует рекомендательные алгоритмы

Если вы хотите поддержать нашу дальнейшую работу от 1 фунта стерлингов, нажмите здесь!

Грэм Лейн и Марсель Хедман

Ключевые последние разработки

«Я редко был так увлечен новым направлением исследований»

Что? Приведенная выше цитата принадлежит Джошуа Бенжио, одному из всемирно известных крестных отцов глубокого обучения. В его недавней публикации в блоге обсуждаются генеративные потоковые сети (GFlowNets), предоставляется ряд полезных ресурсов и обещается залп новых статей.
Генеративные потоковые сети сочетают в себе элементы обучения с подкреплением, глубокого генеративного модели и вероятностное моделирование на основе энергии. Они способны последовательно строить сложные объекты, такие как молекулярные графы, причинно-следственные графы или объяснения сцены. В то время как обучение с подкреплением максимизирует одно действие, можно обучить политику сети генеративных потоков таким образом, чтобы конечные состояния сети в целом соответствовали желаемой функции вероятности.
Ключевые выводы: Бенжио четко заявляет, что работа направлена ​​на преодоление разрыва между ИИ и человеческим интеллектом путем внедрения функций высокоуровневого познания в сети глубокого обучения, чтобы овладеть причинно-следственными связями и улучшить обобщение на новые или необычные сценарии. Он разрабатывал эти идеи в течение нескольких лет, описывая, что настоящим источником вдохновения для этой работы является моделирование мыслей в нашем уме.

Стэнфордский отчет показывает, что проблемы этики продолжают преследовать область ИИ по мере роста финансирования

Что: Опубликован пятый ежегодный отчет об индексе искусственного интеллекта Стэнфордского института искусственного интеллекта, ориентированного на человека. В отчете утверждается, что 2021 год стал точкой, в которой ИИ стал зрелой технологией с широким распространением и реальным влиянием. Это более широкое распространение приводит к тому, что все больше внимания уделяется этическим вопросам.
Ключевые выводы.
Финансы. В 2021 году частные инвестиции в ИИ составили около 93,5 млрд долларов, что более чем вдвое больше, чем в предыдущем году. , но количество новых компаний, получающих финансирование, уменьшается из года в год.
Технология: время и стоимость моделей обучения резко сократились. Крупнейшие компании получают выгоду от использования огромных, труднодоступных наборов данных для обучения ИИ. В 2021 году девять из 10 самых современных систем искусственного интеллекта были обучены с использованием дополнительных данных.
Этика. Влияние внутренних групп по этике остается под вопросом. Между тем, современная языковая модель в 2021 году на 29% чаще выдавала токсичный текст по сравнению с меньшей и более простой моделью в 2018 году. Это говорит о том, что увеличение токсичности соответствует увеличению общих возможностей.

Закон об алгоритмах Китая вступает в силу, чтобы обуздать влияние больших технологий в общественном мнении

Что? В Китае недавно вступили в силу новые правила, призванные ограничить использование алгоритмов рекомендаций в приложениях. В соответствии с новыми правилами поставщики услуг, использующие алгоритмы, должны «продвигать положительную энергию» и разрешать пользователям отказываться от персонализированных рекомендаций. Правила обеспечивают защиту потребителей, поскольку секретные знания о привычках клиентов в Интернете не используются для взимания дополнительных сборов. Существует также защита работников гиг-экономики от излишеств алгоритмического управления. Эти правила будут поддерживать меры против дезинформации, но также могут использоваться властями для пресечения рекомендаций контента, которые могут «формировать общественное мнение» или «социальную мобилизацию».
Основные выводы: Дезинформация, разжигание ненависти, социальная раздробленность и права работников гиг-экономики являются острыми проблемами во многих странах. Китай первым приступает к действиям, но другие страны будут наблюдать и рассматривать свои собственные инициативы. На данный момент реализация правил остается неопределенной. Как будут оцениваться алгоритмы и как будет уважаться интеллектуальная собственность компаний?

Этика ИИ

«Россия могла использовать беспилотник-убийцу в Украине. Что теперь?"

Сообщается, что Россия разместила в Украине беспилотники-самоубийцы, которые могут автономно идентифицировать цели с помощью ИИ, хотя неясно, работали ли они автономно или под контролем человека. Подробный отчет Wired об автономном оружии предполагает, что ситуация, разворачивающаяся в Украине, показывает, насколько сложно будет на самом деле использовать продвинутый ИИ и автономию.

Украина начала использовать систему распознавания лиц Clearview AI во время войны

Украина использует противоречивое программное обеспечение для распознавания лиц на основе искусственного интеллекта от Clearview для борьбы с дезинформацией, для идентификации российских комбатантов, заключенных и погибших. Российская сторона не имеет доступа к Clearview, но почти наверняка имеет аналогичные возможности. Выявление личности на войне может быть обоюдоострым мечом. С одной стороны, это может позволить привлечь к ответственности виновных в нарушениях прав человека. С другой стороны, это может подвергнуть отдельных солдат и их семьи репрессиям.

Наблюдательный совет Facebook

Эта ветка в Твиттере дает представление об этической работе Наблюдательного совета Facebook.

Как искусственный интеллект может помочь в борьбе с системным расизмом

Автор утверждает, что нам нужно смотреть не только на предвзятость алгоритмов, но и на будущее ИИ, в котором модели более эффективно справляются с системным неравенством.

Другие интересные чтения

Захватят ли трансформеры ИИ?

В этой статье представлен хороший обзор моделей-трансформеров в ИИ (часто связанных с "базовыми моделями" и "большими языковыми моделями"), почему они важны и чем они могут быть полезны. развернуты в будущем.

Новое правоприменительное оружие FTC означает смерть алгоритмам

Федеральная торговая комиссия США нашла новый эффективный механизм правоприменения: требовать от компаний, нарушающих правила, удалять алгоритмы, модели ИИ и данные, которые были собраны ненадлежащим образом.

Использование ИИ для поддержки социального взаимодействия между слепыми детьми и их сверстниками

Система помогает слепым детям находить других в комнате, а также дает подсказки о том, когда кто-то устанавливает «зрительный контакт», что может быть возможностью начать разговор.

Это как GPT-3, но для кода — весело, быстро и полно недостатков

Спустя девять месяцев после его выпуска, всесторонний взгляд на реальный опыт использования инструмента завершения кода Copilot, подчеркивающий как впечатляющие, так и разочаровывающие результаты.

Метод молекулярных контрфактуалов помогает химикам объяснять предсказания ИИ

Как понимать прогнозы ИИ? Во-первых, предсказать молекулу с определенным свойством. Во-вторых, ищите аналогичную молекулу, у которой нет этого свойства. В-третьих, сравните две молекулы, чтобы убедиться, что разница между ними дает правдоподобное объяснение наличия нового свойства.

Крутые компании найдены на этой неделе

Машинный интеллект

Нумента — это команда ученых и инженеров, применяющих принципы нейронауки к исследованиям искусственного интеллекта. Цель состоит в том, чтобы реконструировать неокортекс и разработать план, который можно использовать для создания технологии машинного интеллекта. Соучредителем компании является Джефф Хокинс, автор двух известных книг: Об интеллекте (2004 г.) и Тысяча мозгов: новая теория интеллекта (2021 г.). Компания работает с 2005 года и является частной. В последний раз он получил финансирование раунда D в размере 5 миллионов долларов в 2012 году.

Автономные транспортные средства

Autobrains — компания, которая стремится радикально переосмыслить автономное вождение, чтобы оно было адаптивным к контекстуальным изменениям. Это будет достигнуто за счет самообучения ИИ, а не использования более распространенного контролируемого ИИ (с помеченными примерами). Компания привлекла 120 миллионов долларов в рамках раунда C финансирования.

Суперкомпьютеры с искусственным интеллектом

Luminous Computing — ряд стартапов разрабатывают фотонные чипы, которые работают с использованием света, а не электричества. Теоретически это может привести к более высокой производительности и большей эффективности, тем самым обеспечивая повышенную мощность, необходимую для работы будущих систем искусственного интеллекта. У компании есть миссия построить самый мощный масштабируемый суперкомпьютер с искусственным интеллектом на Земле и собрать 105 миллионов долларов в рамках раунда финансирования от спонсоров, включая Билла Гейтса.

И наконец …

Вы когда-нибудь чувствовали, что не можете идти в ногу со временем?
Новое исследование показывает, что мощность систем ИИ удваивается каждые 6 месяцев, что значительно превышает закон Мура, согласно которому вычислительная мощность компьютеров удваивается каждые 6 месяцев. 14 месяцев.

Машины ИИ превзошли закон Мура за последнее десятилетие