Публикации по теме 'generalization'


Нет теоремы о бесплатном обеде, интерполяционных таблиц и предположений о гладкости
Пожалуйста, установите плагин Math Anywhere для Chrome, чтобы увидеть отображаемые уравнения. Или лучше просто перейдите на версию на моем сайте : https://jg-blog.surge.sh/blog/no-free-lunch Это часть серии , но ее можно читать отдельно. Теория, которая все объясняет, но ничего не объясняет — Карл Поппер¹ Теорема об отсутствии бесплатного обеда была впервые доказана Дэвидом Вулпертом и Уильямом Макреди в 1997 году. Проще говоря, теорема об отсутствии бесплатного обеда..

Статья другого человека!
Мы в iDAF очень гордимся каждым из наших товарищей. И мы рады поделиться с вами еще одной статьей. Название: ПОДГОНКА МОДЕЛИ И ОБОБЩЕНИЕ Введение Целью построения модели машинного обучения (особенно в задачах классификации) является выявление основных закономерностей в обучающих данных и прогнозирование результатов нового наблюдения. Для построения модели требуются данные для обучения и тестирования. Модель изначально строится на обучающих данных, сопоставляя ее признаки с..

Показатели вашей модели не всегда верны
Итак, у вас есть данные о проблеме, которую вы хотите решить с помощью ML, вы идете вперед и очищаете ее, а затем строите модели на ее основе, и за всю вашу тяжелую работу вы получаете потрясающие значения метрик, и вы довольны этим, и за всю эту тяжелую работу я бы тоже был счастлив, пока не понял эту очень дерзкую и скрытую концепцию утечки данных, и мне бы очень хотелось узнать это раньше. ДОВОЛЬНЫ ЭТОЙ ТОЧНОСТЬЮ? История начинается с того, что мы должны создать модель,..

Puzzle Mix: использование значимости и локальной статистики для оптимального смешивания
Сеён Ан Глубокие нейронные сети используются почти во всех областях, требующих искусственного интеллекта, таких как распознавание объектов, речь, обработка естественного языка и обучение с подкреплением. Следовательно, они стали основой современных задач, связанных с ИИ. Тем не менее, существуют и ограничения — поскольку эти модели полностью запоминают обучающие данные и делают слишком самоуверенные прогнозы, — что обычно приводит к снижению производительности обобщения на тестовых..

Придерживайтесь приземления на индуктивных прыжках
Философия старой школы на переднем крае ИИ На прошлой неделе я обедал (и когда я говорю обед , я имею в виду полуденные канноли: новое здание Милы на Mile-Ex находится в одном квартале от Маленькой Италии) с Милой, аспирантом Димой Богдановым , автором двух новых статей ICLR на две открытые проблемы в машинном обучении, которые, по его мнению, могут быть неразрывно связаны. В первой статье Дима разделил ведущее авторство со стажером Шихар Мурти , работая с магистрантом Михаилом..

Понимание — «Понимание глубокого обучения требует переосмысления обобщения»
Давайте начнем с мема, который в последнее время показался мне забавным, и я не мог не прикрепить его к своей самой первой статье на Medium. Гоша, я очень взволнован. Тут ничего не происходит: В этой статье вы найдете разумную разбивку статьи ICLR 2017 под названием «Понимание глубокого обучения требует переосмысления обобщения». Абстрактный: Первое, на что следует обратить внимание в этой знаменательной статье в этой области, — это тот факт, что когда авторы пишут «DNN», они..

Увеличение данных при обработке естественного языка
Повысьте производительность своей модели, генерируя данные на ходу. Вы раньше работали с расширенными изображениями? Дополнение изображений сделало вашу модель более обобщенной и работоспособной за счет предоставления большого количества данных, когда у вас их было меньше. В этом посте мы рассмотрим увеличение данных в обработке естественного языка. Этот пост представляет собой обзор статьи Простое расширение данных для повышения производительности при классификации текста от..