В информационном бюллетене на этой неделе будут рассмотрены приложения генеративных методов в ИИ, такие как синтетические данные для видео, последствия генерации изображений DALL-E 2 с открытым исходным кодом и роботы Google, генерирующие собственный код!

Создание изображений своими руками уже здесь… Готовы ли мы к этому?

автор Спенсер Карп



DALL-E 2 — это программа для создания изображений на основе искусственного интеллекта. Все, что вам нужно сделать, это ввести то, что вы хотите увидеть (например, «собака, играющая в футбол на пляже»), и DALL-E 2 сгенерирует это изображение. Совсем недавно OpenAI объявила, что DALL-E 2 будет доступен в виде API, что означает, что любой разработчик может использовать его в своих проектах. Удивительно, что кто-то теперь сможет использовать такие передовые технологии, однако это может быть очень опасно. Важно помнить, что мы, люди, программируем компьютеры так, чтобы они думали, как мы. Это может означать, что наши внутренние предубеждения могут проникнуть в наши программы. OpenAI говорит, что они работают над устранением этих предубеждений, но пока этого не произошло. Еще одна проблема, связанная с этим выпуском, — устранение водяных знаков. Люди могли бы использовать эту генерацию изображений для создания глубоких подделок или копирования художников без каких-либо последствий. Таким образом, мы видели сопротивление со стороны крупных компаний. Такие сайты, как Shutterstock и Getty, выразили свою озабоченность и не позволят людям, которые создают изображения с помощью DALL-E 2, размещать их на сайте. У ИИ и создания изображений большое будущее, но только если мы все сделаем правильно.

Представьте, если хотите… Перспективы использования синтетических данных для наборов видеоданных

автор Уилл Каландра



Когда трудно получить реальные данные, что, если бы мы могли создать свои собственные наборы данных, на которых мы могли бы выполнять наши анализы? В мире машинного обучения термин «синтетические данные» описывает ситуации, когда инженеры могут генерировать поддельные данные, которые являются правдоподобными и предназначены для воспроизведения реальных данных. Таким образом, в тех случаях, когда реальные данные являются дорогостоящими, конфиденциальными, труднодоступными или редкими, использование синтетических данных может стать решением для повышения производительности моделей машинного обучения. В этой статье исследователи из Массачусетского технологического института, IBM и Бостонского университета создали набор синтетических данных из 150 000 видеоклипов, чтобы помочь исследовательскому сообществу получить доступ к надежным видеоданным. Они также предварительно обучили модели машинного обучения на этом наборе данных и доказали его превосходную производительность по сравнению с моделями, обученными на реальных видеоданных, особенно в более общих случаях. Результатом такого проекта является то, что исследователи могут не только избежать больших затрат, связанных со сбором видеоданных, но и смягчить этические проблемы и проблемы конфиденциальности, связанные с использованием видео реальных людей. Учитывая перспективность синтетических данных, лаборатория MIT-IBM Watson AI Lab планирует создать каталог наборов синтетических данных и предварительно обученных моделей, которые могут конкурировать с реальными аналогами. Однако исследователям придется быть осторожными и признать тот факт, что синтетические данные являются фальшивыми, а риски бессмысленных или нерепрезентативных наблюдений могут привести к ошибочным анализам. Таким образом, будет важно дополнительно изучить, что модель действительно узнает из синтетических данных, если мы хотим принять эти методы и доверять им.

Роботы Google пишут собственный код

автор Annika Lin



Цель предоставления роботам возможности генерировать собственный код состоит в том, чтобы избавить разработчиков-людей от необходимости перепрограммирования систем. По словам стажера-исследователя Google Ляна и научного сотрудника по робототехнике Цзэна, Google Code as Policies (CaP) использует «языковые модели для прямого написания кода робота с помощью нескольких подсказок». Это позволяет одной системе выполнять различные сложные роботизированные задачи без специального обучения. Когда человек дает большие языковые модели (LLM) команды на естественном языке, система использует сторонние библиотеки и API для создания кода политики роботов на Python. Для получения более подробной информации посетите их веб-сайт ниже!