Публикации по теме 'generalization'
Нет теоремы о бесплатном обеде, интерполяционных таблиц и предположений о гладкости
Пожалуйста, установите плагин Math Anywhere для Chrome, чтобы увидеть отображаемые уравнения. Или лучше просто перейдите на версию на моем сайте : https://jg-blog.surge.sh/blog/no-free-lunch
Это часть серии , но ее можно читать отдельно.
Теория, которая все объясняет, но ничего не объясняет — Карл Поппер¹
Теорема об отсутствии бесплатного обеда была впервые доказана Дэвидом Вулпертом и Уильямом Макреди в 1997 году. Проще говоря, теорема об отсутствии бесплатного обеда..
Статья другого человека!
Мы в iDAF очень гордимся каждым из наших товарищей. И мы рады поделиться с вами еще одной статьей.
Название:
ПОДГОНКА МОДЕЛИ И ОБОБЩЕНИЕ
Введение Целью построения модели машинного обучения (особенно в задачах классификации) является выявление основных закономерностей в обучающих данных и прогнозирование результатов нового наблюдения. Для построения модели требуются данные для обучения и тестирования. Модель изначально строится на обучающих данных, сопоставляя ее признаки с..
Показатели вашей модели не всегда верны
Итак, у вас есть данные о проблеме, которую вы хотите решить с помощью ML, вы идете вперед и очищаете ее, а затем строите модели на ее основе, и за всю вашу тяжелую работу вы получаете потрясающие значения метрик, и вы довольны этим, и за всю эту тяжелую работу я бы тоже был счастлив, пока не понял эту очень дерзкую и скрытую концепцию утечки данных, и мне бы очень хотелось узнать это раньше.
ДОВОЛЬНЫ ЭТОЙ ТОЧНОСТЬЮ?
История начинается с того, что мы должны создать модель,..
Puzzle Mix: использование значимости и локальной статистики для оптимального смешивания
Сеён Ан
Глубокие нейронные сети используются почти во всех областях, требующих искусственного интеллекта, таких как распознавание объектов, речь, обработка естественного языка и обучение с подкреплением. Следовательно, они стали основой современных задач, связанных с ИИ. Тем не менее, существуют и ограничения — поскольку эти модели полностью запоминают обучающие данные и делают слишком самоуверенные прогнозы, — что обычно приводит к снижению производительности обобщения на тестовых..
Придерживайтесь приземления на индуктивных прыжках
Философия старой школы на переднем крае ИИ
На прошлой неделе я обедал (и когда я говорю обед , я имею в виду полуденные канноли: новое здание Милы на Mile-Ex находится в одном квартале от Маленькой Италии) с Милой, аспирантом Димой Богдановым , автором двух новых статей ICLR на две открытые проблемы в машинном обучении, которые, по его мнению, могут быть неразрывно связаны.
В первой статье Дима разделил ведущее авторство со стажером Шихар Мурти , работая с магистрантом Михаилом..
Понимание — «Понимание глубокого обучения требует переосмысления обобщения»
Давайте начнем с мема, который в последнее время показался мне забавным, и я не мог не прикрепить его к своей самой первой статье на Medium. Гоша, я очень взволнован.
Тут ничего не происходит:
В этой статье вы найдете разумную разбивку статьи ICLR 2017 под названием «Понимание глубокого обучения требует переосмысления обобщения».
Абстрактный:
Первое, на что следует обратить внимание в этой знаменательной статье в этой области, — это тот факт, что когда авторы пишут «DNN», они..
Увеличение данных при обработке естественного языка
Повысьте производительность своей модели, генерируя данные на ходу.
Вы раньше работали с расширенными изображениями? Дополнение изображений сделало вашу модель более обобщенной и работоспособной за счет предоставления большого количества данных, когда у вас их было меньше. В этом посте мы рассмотрим увеличение данных в обработке естественного языка. Этот пост представляет собой обзор статьи
Простое расширение данных для повышения производительности при классификации текста от..