Реальность лежит где-то между страхом и волнением

День 3 серии #100daygenai

Мы рассказали о широком ландшафте генеративного ИИ от одного из ведущих специалистов в области ИИ — Стива Нури в День 1 и начали делать маленькие шаги к тому, что привело к разработке таких колоссальных моделей во День 2.

Теперь, в День 3, пришло время проверить реальность, чтобы понять, является ли это шумихой или пузырем, который встретит свою судьбу с течением времени, когда фурор подойдет к концу.

Или мы упускаем критический момент, который бывает раз в жизни, чтобы максимально использовать эту революцию «электрического эквивалента»?

Мы специалисты по данным и можем лучше всего прибегнуть к данным, чтобы проверить реальность.

Это побудило меня поделиться известным отчетом — Годовым отчетом AI Index 2023, который является независимой инициативой Стэнфордского института искусственного интеллекта, ориентированного на человека (HAI).

IEEE считает его одним из наиболее полных сведений о состоянии дел в подробном 302-страничном отчете.

Давайте обсудим некоторые из ключевых моментов отчета —

  • «Размерность» больших языковых моделей дорого для кармана — модель с 1,5 миллиардами параметров обошлась в колоссальные 50 000 долларов на обучение. И PaLM с 540 миллиардами параметров → стоимость 8 миллионов долларов.
  • ИИ охватил массы с выпуском DALL-E 2, Stable Diffusion и ChatGPT
  • Эволюция от «узкозадачных» традиционных моделей к «многозадачным» моделям, способным выполнять несколько задач.
  • В то время как мир занят разработкой приложений для решения одной бизнес-задачи, очевидно, за счет создания новых проблем с точки зрения выбросов углерода, что приводит к серьезному вреду для окружающей среды. Теперь это очень больно!
  • Вы когда-нибудь слышали о фразе «алмаз режет алмаз»? Мы видели события, свидетельствующие о том, что искусственный интеллект будет улучшать себя — предварительный просмотр эры самоуправляемого искусственного интеллекта, отраженный, когда Google использовал PaLM для улучшения той же модели.
  • Признак хорошего прогресса — токсичность и предвзятые ответы предыдущих моделей были снижены с помощью настроенных под инструкции недавно обученных моделей.
  • Дипфейки стали одной из самых серьезных проблем среди других, что вызвало интерес к этике ИИ.

Хотя в отчете есть еще что-то, я расскажу о них в будущих сообщениях, объединив эти точки данных с аналогичными и передовыми разработками, которые произошли с тех пор.

А пока давайте пересмотрим наши выводы с помощью этого краткого графика:

Следите за обновлениями на следующих платформах:

Linkedin: #allaboutgenai; #100daysofgenai

Средний
YouTube