Реальность лежит где-то между страхом и волнением
День 3 серии #100daygenai
Мы рассказали о широком ландшафте генеративного ИИ от одного из ведущих специалистов в области ИИ — Стива Нури в День 1 и начали делать маленькие шаги к тому, что привело к разработке таких колоссальных моделей во День 2.
Теперь, в День 3, пришло время проверить реальность, чтобы понять, является ли это шумихой или пузырем, который встретит свою судьбу с течением времени, когда фурор подойдет к концу.
Или мы упускаем критический момент, который бывает раз в жизни, чтобы максимально использовать эту революцию «электрического эквивалента»?
Мы специалисты по данным и можем лучше всего прибегнуть к данным, чтобы проверить реальность.
Это побудило меня поделиться известным отчетом — Годовым отчетом AI Index 2023, который является независимой инициативой Стэнфордского института искусственного интеллекта, ориентированного на человека (HAI).
IEEE считает его одним из наиболее полных сведений о состоянии дел в подробном 302-страничном отчете.
Давайте обсудим некоторые из ключевых моментов отчета —
- «Размерность» больших языковых моделей дорого для кармана — модель с 1,5 миллиардами параметров обошлась в колоссальные 50 000 долларов на обучение. И PaLM с 540 миллиардами параметров → стоимость 8 миллионов долларов.
- ИИ охватил массы с выпуском DALL-E 2, Stable Diffusion и ChatGPT
- Эволюция от «узкозадачных» традиционных моделей к «многозадачным» моделям, способным выполнять несколько задач.
- В то время как мир занят разработкой приложений для решения одной бизнес-задачи, очевидно, за счет создания новых проблем с точки зрения выбросов углерода, что приводит к серьезному вреду для окружающей среды. Теперь это очень больно!
- Вы когда-нибудь слышали о фразе «алмаз режет алмаз»? Мы видели события, свидетельствующие о том, что искусственный интеллект будет улучшать себя — предварительный просмотр эры самоуправляемого искусственного интеллекта, отраженный, когда Google использовал PaLM для улучшения той же модели.
- Признак хорошего прогресса — токсичность и предвзятые ответы предыдущих моделей были снижены с помощью настроенных под инструкции недавно обученных моделей.
- Дипфейки стали одной из самых серьезных проблем среди других, что вызвало интерес к этике ИИ.
Хотя в отчете есть еще что-то, я расскажу о них в будущих сообщениях, объединив эти точки данных с аналогичными и передовыми разработками, которые произошли с тех пор.
А пока давайте пересмотрим наши выводы с помощью этого краткого графика:
Следите за обновлениями на следующих платформах: