Я выпускаю коды MATLAB, R и Python для Adaptive Boosting (AdaBoost) Classification (ABC). Они очень просты в использовании. Вы подготавливаете набор данных и просто запускаете код! Затем можно получить ABC и результаты прогнозирования для новых выборок. Очень просто и легко!

Вы можете купить каждый код по указанным ниже URL-адресам.

МАТЛАБ

https://gum.co/RYGs
Загрузите дополнительный zip-файл (это бесплатно) по указанному ниже URL-адресу, чтобы запустить код ABC.
http://univprofblog.html.xdomain .jp/code/MATLAB_scripts_functions.zip

R

https://gum.co/ovUWC
Пожалуйста, загрузите дополнительный zip-файл (это бесплатно) по указанному ниже URL-адресу, чтобы запустить код ABC.
http://univprofblog.html.xdomain .jp/code/R_scripts_functions.zip

питон

https://gum.co/igWUi
Загрузите дополнительный zip-файл (это бесплатно) по указанному ниже URL-адресу, чтобы запустить код ABC.
http://univprofblog.html.xdomain .jp/code/supportingfunctions.zip

Процедура ABC в кодах MATLAB, R и Python

Чтобы выполнить соответствующий ABC, коды MATLAB, R и Python следуют приведенной ниже процедуре после загрузки набора данных.

1. Определите метод классификации
В основном используется дерево решений. Поскольку AdaBoost является ансамблевым методом, производительность классификаторов не важна.

2. Определите количество моделей классификации

3. Независимая переменная автомасштабирования (X) (при необходимости)
Автомасштабирование означает центрирование и масштабирование. Среднее значение каждой переменной становится равным нулю путем вычитания среднего значения каждой переменной из переменной при центрировании. Стандартное отклонение каждой переменной становится единицей путем деления стандартного отклонения каждой переменной от переменной при масштабировании.

4. Создание модели AdaBoost

5. Вычислить матрицу путаницы между фактическим Y и вычисленной Y
Коэффициент точности, уровень обнаружения, точность и т. д. можно рассчитать из каждой матрицы путаницы, если это необходимо.

6. При прогнозировании вычтите среднее значение при автоматическом масштабировании X в 1 из переменных X, а затем разделите переменные X на стандартное отклонение при автоматическом масштабировании X в 1 для новых выборок, если X автоматически масштабируется в 3.

7. Оцените Y и рассчитайте вероятность каждого класса для новых выборок на основе модели AdaBoost в 4.

Как выполнить азбуку?

1. Купить код и разархивировать файл

MATLAB: https://gum.co/RYGs

R: https://gum.co/ovUWC

Python: https://gum.co/igWUi

2. Загрузите и разархивируйте дополнительный zip-файл (это бесплатно)

MATLAB: http://univprofblog.html.xdomain.jp/code/MATLAB_scripts_functions.zip

R: http://univprofblog.html.xdomain.jp/code/R_scripts_functions.zip

Python: http://univprofblog.html.xdomain.jp/code/supportingfunctions.zip

3. Поместите дополнительные файлы в тот же каталог или папку, что и код ABC.

4. Подготовьте набор данных. Формат данных см. в статье ниже.

https://medium.com/@univprofblog1/data-format-for-matlab-r-and-python-codes-of-data-analysis-and-sample-data-set-9b0f845b565a#.3ibrphs4h

5. Запустите код!

Расчетные значения Y для «data_prediction2.csv» сохраняются в «PredictedY2.csv». Вероятность каждого класса для каждого оценочного значения сохраняется в «PredictedY2_Probability.csv».

Требуемые настройки

См. статью ниже.
https://medium.com/@univprofblog1/settings-for-running-my-matlab-r-and-python-codes-136b9e5637a1#.paer8scqy

Примеры результатов выполнения