Дорожная карта Google Analytics для персонализации

Персонализация открывает новые горизонты в маркетинге, основанном на данных, позволяя организациям извлекать выгоду из преимущества первопроходца в виде более активного участия, более глубокой лояльности и измеримого роста прибыли. Создавая процессы (например, экспериментирование) и методологии (от машинного обучения до обучения с подкреплением) для оптимизации своего взаимодействия с клиентом, организации могут использовать аналитику для достижения устойчивого и долгосрочного создания ценности.

Однако полная алгоритмическая оптимизация (нажмите кнопку, получите ответ) не происходит в одночасье; это требует многоуровневой разработки, которая становится все более сложной. Машинное обучение (ML) не является панацеей, а, скорее, одним из многих строительных блоков более широкой экосистемы. В самом деле, использование расширенной аналитики - это процесс снабжения маркетинговой организации идеями, которые, по сути, никогда не заканчиваются.

В этой статье мы попытаемся представить бизнес-перспективу дорожной карты AI / ML для персонализации на основе стимулов: с чего начать, как развиваться и как планировать процессы на основе этого.

Что такое персонализация - а что нет

Персонализация - это индивидуализированное, уникально построенное взаимодействие - или точка соприкосновения - с клиентом. И не просто «любую» дифференцированную точку взаимодействия, а «оптимальную» дифференцированную точку взаимодействия для каждого клиента. Целью персонализации является общение с отдельным клиентом таким образом, чтобы оптимизировать его для получения желаемой отдачи от этого клиента, например снизить трение, увеличить расходы, сохранить лояльность и т. Д.

Какой бы ни была природа ожидаемого дохода, индивидуальный маркетинг имеет три аспекта:

1. Измеримость. . Идея о том, что мы можем упорядочивать различные действия на основе количественных показателей. Другими словами, лучшее, что мы можем сделать, основано на (статистически значимых) данных, а не на инстинкте.

2. Контекст. Правильное взаимодействие в правильном контексте, через правильный канал и в нужное время. Другими словами, лучшее, что мы можем сделать в определенный момент времени. Если контекст изменится, может измениться и оптимальное взаимодействие.

3. Глубина или продольный путь. Правильное взаимодействие в свете последовательности предшествующих взаимодействий с отдельным клиентом. Другими словами, лучшее, что мы можем сделать в течение определенного периода времени, а не только сейчас.

Итак, что же такое «лучшее, что мы можем сделать»? С точки зрения маркетинга это означает влияние на поведение покупателя. С этой целью маркетологи определяют тип поведенческих изменений, которые они хотят вызвать. Примеры включают в себя побуждение покупателя посетить магазины, а не просто посещение онлайн, увеличение частоты посещений покупателя, побуждение покупателя к использованию приложения или цифрового помощника и углубление изучения привычными покупателями вариантов онлайн-меню.

Изменить поведение сложно, и это влечет за собой несколько согласованных, часто последовательных точек соприкосновения по разным направлениям обслуживания, которые мы называем «учебными программами». Один и тот же учебный план может предоставить разным клиентам разный опыт, потому что время, контекст и отдельные инициируемые действия - или тактика - персонализированы. Поощрения - это типичный, но не исчерпывающий вид тактики, например с такими предложениями, как «Посетите магазин в этом месяце и получите скидку 10%», «Получите двойные баллы за покупки в Интернете», «Купите один, получите один бесплатно» и так далее.

Между тем, согласование, такое как стратегическое решение о , какое поведение продвигать, происходит на уровне учебной программы, тогда как оптимизация - например, как управлять изменением поведения - в основном происходит на тактическом уровне. Таким образом, решения для расширенной аналитики должны начинаться с тактического уровня, прежде чем их подталкивают к оркестровке.

Наконец, персонализация - это не только стимулы, даже когда задействован искусственный интеллект (ИИ). Классическая карусель в стиле Amazon, показывающая, что «вас также может заинтересовать», не требует никаких скидок или вознаграждений, чтобы быть эффективной. Другие рычаги персонализации:

· Актуальность (например, я вегетарианец; не говори со мной о беконе)

· Удобство работы (например, облегчить мою жизнь; уменьшить количество раз, когда мне нужно что-то нажимать)

· Вовлеченность (например, дайте мне повод вернуться и использовать ваше приложение)

Итог: Оптимизация вознаграждений - сложная аналитическая задача.

Как традиционные маркетологи и специалисты по анализу данных думают о персонализированном опыте

Традиционный маркетинг часто основан на календаре. Календарный подход работает следующим образом:

1. Установите дату начала и окончания кампании («Только в эти выходные получите 20% скидку на брюки»).

2. Определите критерии отбора или того, кто получит сообщение («Наши участники программы лояльности VIP имеют право на это эксклюзивное предложение»).

3. Подсегмент в соответствующей группе («Распродажа женских штанов и джинсов для йоги, а также мужских классических штанов»).

Традиционные маркетологи начинают с кампании - ее характера, времени и целевой аудитории - а затем определяют детали. Некоторые кампании очень просты, например, предложение одеял, где все джинсы со скидкой 30%, тогда как некоторые сегментированы и в некоторой степени персонализированы. В идеальном сценарии разные бизнес-вертикали координируют маркетинговый календарь в соответствии с согласованной последовательностью и объемом кампаний в организации.

С другой стороны, специалист по анализу данных подошел бы к маркетинговому календарю как к задаче оптимизации. Чтобы решить эту проблему, она предпочла бы максимизировать целевую функцию - например, дополнительный доход от продаж за вычетом скидок - путем алгоритмического выбора правильной последовательности и набора параметров в пределах множества вариантов. Эти варианты включают:

· Тип тактики

· Время и продолжительность тактики

· Степень сложности последующей награды, связанной с тактикой

· Каналы, используемые для реализации тактики

· Креативные материалы, используемые для продвижения тактики

· Многословие, используемое для продажи тактики

· И т.п.

Этот набор вариантов легко становится слишком обширным, чтобы его можно было оптимизировать только с помощью расширенной аналитики. Действительно, это проблема, которую необходимо решить большинству организаций: выбор правильной последовательности и набора параметров.

Основная задача - найти подход, который решит такую ​​чрезвычайно обширную и многомерную проблему. Двадцать лет назад мы просто сочли бы проблему неразрешимой. Сегодня у нас потенциально есть подходящий инструментарий и вычислительная мощность, но доступные методы искусственного интеллекта по-прежнему зависят от того, «что мы увидели, как выглядит хорошее». А это означает, что нам нужен значительный объем данных, чтобы получить жизнеспособный ответ, в идеале - на основе контролируемых экспериментов.

Жажда экспериментальных данных повсеместна. В компьютерном зрении нейронным сетям требуются тысячи (помеченных) изображений кошек, чтобы точно распознать другое изображение кошки. При ценообразовании группам однородных клиентов необходимо предлагать разные цены, чтобы получить оптимальный уровень ценовой дискриминации (создав так называемые «кривые эластичности»). А в маркетинговых кампаниях необходимо задействовать разные пути, чтобы понять, какой путь будет работать лучше всего в будущем. В результате, если организация запустила одну и ту же последовательность кампаний A-B-C-D-E с течением времени, она никогда не узнает, действительно ли D-A-E-C-B лучший вариант, потому что она никогда не видела этого раньше.

Итак, организации проводят испытания посредством контролируемых экспериментов. Ограничения тестирования одинаковы, независимо от того, что тестируется: времени и стоимости. Возвращаясь к нашему примеру A-B-C-D-E, нужно время, чтобы проверить лучшие сочетания пяти различных тактик на рынке. Даже при еженедельных кампаниях 120 перестановок (5 x 4 x 3 x 2 x 1) потребуют месяцев - или, что более вероятно, лет - тестирования, в зависимости от уровня распараллеливания. Также есть альтернативные издержки, если не сразу найти оптимальный ответ. Помимо последовательности, организации также могут захотеть понять оптимальные параметры на тактическом уровне (например, какая версия тактики A лучше всего подходит для каждого клиента?), Что требует дальнейшего тестирования, а вместе с тем - больше времени и затрат.

Настоящая оптимизация с использованием ИИ возможна, и она уже существует на рынке. Он требует строгости, структурированности и настойчивости, смешанных с изрядной дозой упрощающих предположений.

Действительно, цель состоит в том, чтобы упростить и расслоить обучение с течением времени.

Идеальная последовательность оптимизации в персонализации

Если персонализированный маркетинг можно рассматривать как проблему оптимизации, главное - не решать все сразу. С точки зрения маркетолога проблема разбивается на три этапа:

1. Оптимизируйте последовательность тактик с течением времени: Что должно быть: A-B-C-D-E или D-A-E-C-B?

2. Оптимизируйте тактику сегодня: Независимо от того, что происходило в прошлом, должна ли Джейн получить тактику A или B сегодня?

3. Оптимизируйте тактику: Как только мы сегодня выбрали тактику A для Джейн, какую правильную комбинацию награды и сложности в тактике A нам нужно использовать?

Мы рекомендуем изменить порядок решения проблем, оставив проблему определения последовательности на потом.

Другими словами:

1. Определите правильную комбинацию вознаграждения и сложности, необходимую для оптимизации каждой тактики для каждого клиента / группы клиентов.

2. Определите правильную тактику сегодня и, возможно, со временем добавьте взаимодействие каналов или другие контекстные тактики в стратегию тестирования.

3. Увеличьте количество тестов секвенирования, начиная с небольших серьезных проблем (A-B-C или B-A-C).

1) Оптимизируйте тактику

Предположим, тактика A - это скидка на покупку набора продуктов. Скидка - это награда, а набор продуктов - это сложность или задача, необходимая для получения этой награды. Например: Купите джинсы и топы (сложность задания) и получите скидку 5% (уровень награды).

И сложность, и награда в Тактике A могут быть гипер-персонализированы, потому что у клиентов есть индивидуальные вкусы (например, Джейн реагирует на связку джинсов и топов, а Эми реагирует на связку джинсов и курток) и триггеры (например, Джейн нужна скидка 10%, а Эми нужна скидка 20%).

Поскольку существует бесконечное количество вариантов, которые нужно тестировать на индивидуальном уровне, мы упрощаем, тестируя конечное количество комбинаций награды / сложности на уровне сегмента и гиперперсонализировав так называемую «последнюю милю».

В мире машинного обучения, глубокого обучения и искусственного интеллекта сегментация по-прежнему остается нашим другом. Почему? Время и стоимость. Большинство компаний не сообщают, что у них было более двух взаимодействий в год за пределами их 1% лучших клиентов. Одежда, предметы роскоши, авиалинии, развлечения и гостиничный бизнес - все это примеры отраслей, в которых среднее взаимодействие составляет около 1,6 на клиента в год. Этого объема недостаточно, чтобы учиться и оптимизировать для каждого человека. Но мы можем учиться и оптимизировать по сегментам и определять - в общих чертах - лучшие комбинации вознаграждения и сложности.

Оптимизируйте сочетание награды и сложности

Сетка экспериментов с разбивкой по награде и сложности может выглядеть так:

Мы сегментируем популяцию, каждый сегмент знакомится с различными вариантами единой тактики и узнаем, какая из них подходит. Процесс никогда не заканчивается.

После двух или трех экспериментов мы понимаем, какие клиенты лучше реагируют на скидку 10% или скидку 15% и т. Д. Опыт, анализ данных и тщательно разработанные эксперименты помогут нам определить

· Правильный объем матрицы: например, следует ли использовать 3x3 или 2x2?

· Правильные оси: например, следует ли нам сосредоточиться на вовлечении или владении? Тратить или получать прибыль?

· Общая философия: например, следует ли нам оптимизировать расходы, маржу или реакцию?

Персонализируйте последнюю милю

Итак, что именно мы персонализируем? Мы персонализируем «последнюю милю» или то, что это сочетание награды и сложности означает для каждого отдельного клиента.

Персонализация «последней мили» - вот где на помощь приходит ML. Например, предложение купить джинсы и топ может быть средним усилием для Джейн, но тяжелым усилием для Эми, помимо цены. Последняя миля - это понять, что означает набор продуктов «средней сложности» для Джейн и, в частности, для Джейн.

ML дает нам преимущество, предоставляя широкий спектр оценок, которые могут информировать нас о склонности отдельного клиента к:

· Купить товар снова

· Купите категорию товаров снова

· Купите продукт / категорию, которые они никогда раньше не покупали.

· Увеличить / уменьшить уровень своих расходов

· Увеличение / уменьшение их вовлеченности (например, просмотр, нажатие, открытие писем и т. Д.)

· Увеличить / уменьшить свою долю в кошельке

· Затухание или отток

· И т.п.

Регулярно применяемые подходы к машинному обучению часто являются ансамблевыми моделями алгоритмов дерева решений, которые обеспечивают оценку склонности к ответу на бинарный вопрос (например, купит ли Джейн продукт X в следующие две недели?). Каждая оценка склонности является (более или менее) вероятностью, поэтому, если у Джейн есть оценка склонности к покупке джинсов в следующие две недели 0,72 (или 72%), мы вольно интерпретируем это как высокую вероятность того, что она купит джинсы в следующие две недели. Чем выше оценка склонности (максимально приближенная к 1,0 или 100%), тем выше наша уверенность в том, что она действительно купит продукт.

От оценки склонности к персонализированному товарному предложению

Как только мы вычислим наши оценки склонности, интерпретация матрицы сложности может выглядеть так:

Легкая связка состоит из продукта с высокой склонностью (более 70%) и продукта с умеренной склонностью (менее 40%). Поскольку набор продуктов Джейн с вероятностью более 70% будет отличаться от набора продуктов Эми, в конечном итоге мы создаем разные рекомендации для одного и того же сегмента населения по затратам / вовлеченности. Другими словами, набор продуктов Джейн индивидуален.

Собираем все вместе

Прелесть этого подхода в том, что мы экспериментально персонализируем стимул своевременно и с минимальными затратами. Это означает, что Джейн получит истинное сообщение 1: 1.

Вернемся к логике. Джейн - покупательница с высокими затратами и высокой заинтересованностью. Мы проводим два последовательных пилотных эксперимента (для согласованности результатов) на подмножестве населения, где все клиенты, такие как Джейн, получают либо пакет средней сложности со скидкой 5%, либо пакет высокой сложности со скидкой 10%. Измеряя результаты по случайно выбранной контрольной группе, мы заключаем, что пакет средней сложности со скидкой 5% дает более высокий подъем. Итак, мы запускаем предложение пакета средней сложности со скидкой 5% для всех клиентов, таких как Джейн. В то время как скидка (вознаграждение) одинакова для всех двойников Джейн, каждый фактический набор будет индивидуализирован. Джейн попросят купить джинсы и топы, а Эми - рубашки и блузки. Почему? Потому что это то, что подсказывают «склонности» машинного обучения: Джейн очень любит джинсы и топы; Эми, за рубашки и блузки.

Итак, в то время как экспериментирование на уровне сегментов помогает нам узнать правильное вознаграждение, машинное обучение помогает нам воплотить концепцию сложности в действия. Для обзора всего стека персонализации обратитесь к моей статье здесь: Как создать стек персонализации

Экспериментирование, о некоторых мерах предосторожности

Упрощение также означает, что мы навязываем мнение о том, что тестировать, намеренно сокращая множество вариантов ради экономии времени и затрат. Остаются и другие знаки вопроса: должен ли «набор высокой сложности» быть более сложным? Должны ли оба продукта в комплекте иметь оценку склонности ниже 20%? И является ли 10% правильной целью?

Как и наши алгоритмы, маркетологи со временем учатся и корректируют свои эксперименты на основе предыдущих результатов. Это важные элементы, о которых следует помнить

Эксперименты никогда не заканчиваются; мы всегда можем узнать больше, добавить больше сложности, подкрепить предыдущие выводы. Например, мы можем протестировать три уровня перестановок вместо двух, добавить в микс разные каналы, добавить экзогенные факторы, создать параллельные кампании и т. Д.

Эксперименты платные; мы часто слышим, что «экспериментировать - дорого», но это тоже не тот объектив. Проведение контролируемых экспериментов - единственный путь к персонализации на основе данных, при условии, что мы тратим деньги сейчас, чтобы получить более высокую прибыль в будущем. Эти деньги «тратятся» двумя способами:

· Альтернативные издержки удержания клиентов вне маркетинга (контрольные группы не получают маркетинговых материалов и, как правило, тратят меньше)

· Стоимость скидок / поощрений, необходимых для изучения оптимальных уровней

Экспериментирование необходимо для получения измеримых результатов; правильное экспериментирование разработано с учетом статистической значимости, так что оно приводит к неопровержимым ответам - кампания либо приносит отдачу, либо нет. Если это приносит доход, скидки и надбавки не являются «затратами», а просто инвестициями с ожидаемым мультипликатором. Типичная отдача от маркетингового доллара при использовании персонализации составляет примерно 2–3 раза. Неплохая сделка.

Поскольку экспериментирование поддается измерению, организациям следует рассматривать стоимость экспериментов как предсказуемые инвестиции с ожидаемой и предсказуемой отдачей.

Эксперименты по прогнозированию «подъемной силы» могут оказаться чрезвычайно сложными; хотя машинное обучение стало демократизированным, делать его правильно по-прежнему сложно. Типичные реализации модели предсказывают поведение при прочих равных. Если Джейн никогда не дожидается продвижения по службе, чтобы купить новенький продукт, ее склонность описывает ее типичное поведение без лечения (поощрения). Но ее склонность может измениться, когда будет введена скидка. В идеальном мире у нас были бы не модели склонности, а «модели подъема», которые предсказывают поведение в отношении получения определенного лечения. Например, если у Джейн 70% -ная склонность покупать джинсы, но 95% -ная склонность покупать джинсы, когда они поступают в продажу, наш взгляд на сложность связки может измениться, поскольку мы обнаружим, что стимулы для джинсов слишком каннибалистичны для Джейн. .

Машинное обучение так же информативно, как и эксперименты, с помощью которых модели учатся. Хотя предыдущая история покупок - отличный первый шаг для обучения модели, со временем потребуется больше усложнений, чтобы построить модели реакции с учетом контекста и стимулов.

2) Оптимизировать тактику

Определение правильного сочетания награды и сложности Тактики А для Джейн - это первый шаг на пути к персонализации, который обычно занимает от четырех до восьми месяцев. Второй шаг - понять, должна ли сегодня Джейн вообще получить пакетное предложение. Мы знаем лучшую Тактику А для Джейн, но подходит ли сегодня тактика А для Джейн? Наличие ответа означает, что мы уже знаем влияние другой тактики на Джейн (то есть мы экспериментально протестировали тактики B, C, D и E, и у нас есть хорошее понимание того, что работает лучше всего).

В зависимости от размера целевого рынка этот этап программы персонализации длится от девяти до 12 месяцев по ряду причин:

· Требуется время, чтобы получить точные данные об экспериментах, поэтому нам часто приходится проводить их последовательно, а не запускать параллельно.

· Чем больше тактик в нашем распоряжении, тем больше времени потребуется, чтобы перебрать их все

· Мы также хотим включить сезонные модели, так как зимние стимулы могут потребовать другой настройки по сравнению с летними, например

При условии, что мы довольны качеством / количеством экспериментальных данных для всех тактик, есть и другие практические соображения, выходящие за рамки области науки о данных, о которых следует знать. Во-первых, организации обычно не могут одновременно применять разные тактики для разных клиентов. Например, наши данные показывают, что сегодня Джейн должна получить Тактику А, а Эми должна получить Тактику Б, но платформа выполнения маркетинга не организована для одновременного запуска двух отдельных кампаний. Неудивительно, что для обновления процессов и платформ организации требуется больше времени, чем для того, чтобы научиться оптимизировать выбор тактики с помощью контролируемых экспериментов.

Еще одно соображение заключается в том, что программа персонализации должна начинаться с перспективной диагностики всех связанных технологий, а также аналитических решений и процессов, чтобы гарантировать, что полученная информация является действенной, а не затруднена проблемами готовности организации или платформы. При наличии организации, технологий и процессов, позволяющих персонализировать время выполнения тактики на индивидуальном уровне, логика оптимизации представляет собой комбинацию следующих компонентов:

Предыдущие экспериментальные данные по сегментам. Например, рейтинг эффективности тактики для всех клиентов, похожих на Джейн. На этом этапе у нас есть все необходимые данные, поскольку мы дважды или трижды прокрутили все тактики и можем ранжировать их по целевой функции (например, рост, реакция, продажи и т. Д.)

Новые экспериментальные данные о взаимодействиях, связанных с определенной тактикой. Мы пытаемся ответить на вопрос, реагируют ли клиенты лучше или хуже на параллельные предложения. Маркетинговые отделы имеют в своем распоряжении несколько различных вариантов; они могут продвигать определенное общение, использовать стимулы для другого общения, совпадать в магазине и в Интернете и т. д. инициированное предложение (например, стимул после покупки, который срабатывает только после транзакции) может повлиять на наше решение о том, активировать ли Тактику А или полностью ее подавить, потому что она неэффективна или неактуальна.

Бизнес-правила и философия маркетинга, ориентированная на конкретный бренд. Это наиболее важный элемент при выборе кампании. Мы, очевидно, не хотим постоянно посылать Тактику А Джейн, при этом мы не хотим рассылать ей спам, забывать о ней или отправлять ей не относящиеся к делу сообщения. С этой целью организации разрабатывают обширный набор правил, которые обычно попадают в эти четыре сегмента:

· Право на участие

· Антиповторность

· Частота и объем

· Порог скидки

Собрав все это вместе, наш опыт приводит нас к выводу, что упрощение - это правильный подход. Технические препятствия, ограничения бизнеса, контекст и бюджетные ограничения для экспериментов предполагают, что бизнес-правила обычно определяют 80% финальной последовательности. Наиболее частая причина заключается в том, что организации имеют в своем распоряжении ограниченное количество тактик, поэтому логика предотвращения повторения и подавления формирует большинство ответов - иногда достаточно просто циклически повторять существующие предложения. Что еще более важно, возврат инвестиций часто происходит где-то еще. Выполнение первого шага (матрица награды / сложности) имеет первостепенное значение; Помимо этого, если вы столкнетесь с выбором: перейти на новый канал (например, из электронной почты в приложение / веб-сайт), добавить новую тактику или выбрать гипер-персонализированную тактику, последний вариант вряд ли когда-либо обеспечит наилучшую окупаемость инвестиций.

Организации, успешно выполнившие второй этап, полагались на сложные экспериментальные схемы в сочетании с разработкой моделей отклика и моделей подъемной силы. В то время как подходы глубокого обучения, такие как долговременная краткосрочная память (LSTM), продвинули иглу в этом пространстве, реальный сдвиг заключается в переходе от простых оценок склонностей к условным склонностям, которые учитываются в контексте (например, информация о клиенте, привычки или явные обратная связь, полученная с течением времени) и вовлеченность. Это скорее упражнение DOE (планирование эксперимента), чем простое обновление алгоритмов - проверенные методы машинного обучения в сочетании с правильно разработанными тестами часто являются убедительным первым шагом в этой области.

3) Оптимизировать последовательность тактик.

На первых двух шагах мы совместили обучение на уровне сегмента с гиперперсонализацией на индивидуальном уровне (уровень машинного обучения). Мы также увидели, как процессы и маркетинг могут создавать технические проблемы. Наконец, мы обсудили, что выбор тактики в определенный момент времени в основном связан с выводом об инкрементном поведении (например, леченные клиенты тратят больше, чем необработанные, при прочих равных).

Наше желаемое конечное состояние - это способность понимать правильную последовательность точек соприкосновения - основанных ли они на стимулах или нет - которые максимизируют жизненную ценность Джейн для бренда. Пожизненная ценность - единственный фактор, который мы стремимся максимально увеличить в долгосрочной перспективе. И это возможно, поскольку методы все более укрепляются как в академических кругах, так и в промышленности. Опять же, необходимо упрощение, но также и философский сдвиг в том, как мы позволяем нашим алгоритмам «учиться».

Опыт работы в области науки о данных

Традиционные приложения ML и DL (глубокое обучение) подпадают под категорию методов, называемых «контролируемое обучение», которые требуют «маркированных данных» для обучения с течением времени. Но что это вообще значит?

Это означает, что мы «учимся» минимизировать ошибку, в данном случае ошибку прогноза. Например, я представляю изображение кошки, но модель приходит к выводу, что это не кошка. Мы знаем, что это неправильно, и сообщаем об этом модели, предоставляя несколько изображений кошек, на которых она может учиться. Это «помеченные данные» - предыдущая информация, которую мы уже определили как верную. Чем больше размеченных данных мы вводим в модель, тем больше возможностей для улучшения модели и тем меньше вероятность того, что она сделает ошибку при следующем представлении изображения кошки. Эти методы работают, но имеют два ограничения. Им требуются маркированные данные, и им требуется их значительный объем - больше, чем люди думают.

Параллель в маркетинге заключается в том, что у нас есть несколько взаимодействий с Джейн, во время которых мы отправляем ей (экспериментально разработанные) предложения с течением времени; она отвечает на эти предложения, совершая покупку или игнорируя их; и модель продолжает обучение до тех пор, пока не сможет больше снизить частоту ошибок. Но у нас нет такой роскоши; По статистике, Джейн откажется от подписки или откажется от подписки еще до того, как модель даже выскажет свое мнение. Здесь мы представляем совершенно другой подход под названием Обучение с подкреплением (RL).

RL начинается с общего мнения о результатах различных вариантов; например, наша тактика A-B-C-D-E . Может возникнуть мнение, что он присваивает каждому из них коэффициент конверсии 20%, а затем начинает проверять, что работает (т. Е. Конвертирует), а что нет. Тестирование оптимизируется с помощью механизма выборки, который пытается максимально приблизиться к тактике, которая получает наибольший отклик. Таким образом, он будет многократно опробовать все тактики один раз, пока одна тактика, скажем, тактика A, не приведет к конверсии. В этот момент он начнет пробовать Тактику А чаще, чем другие тактики, потому что эмпирически знает, что она (более) успешна. После нескольких итераций он составляет рейтинг, в соответствии с которым тактики часто сходятся, какие тактики сходятся редко, а какие никогда не сходятся вообще. Добавьте бизнес-правила вверху, и вуаля вы решили проблему последовательности в маркетинговой персонализации.

Вид.

Практические соображения

Цель этой статьи не в объяснении RL, а в том, чтобы изложить последствия для бизнеса того, когда и как использовать такие методы, чтобы максимизировать отдачу от персонализированного маркетинга.

Оптимизация последовательности действий может быть решена и решается рутинно с помощью традиционных методов машинного обучения и правильного планирования экспериментов. Однако прелесть RL в том, что по большей части он не требует помеченных данных, не говоря уже о наборе предварительных данных. Так зачем нам вообще беспокоиться о первом шаге, который требует маркированных данных для машинного обучения? Ряд причин:

· Порядок действий. Мы не можем оптимизировать последовательность, пока не оптимизируем отдельные компоненты. Шаг 1 позволил нам создать «лучшую Тактику А для Джейн», так что он должен предшествовать любым решениям относительно того, должна ли Джейн вообще получать Тактику А.

· Талант. RL - относительно новый подход, тогда как с точки зрения талантов компетенции ML более распространены. Среднестатистическая команда специалистов по анализу данных - при условии, что она вообще существует - часто будет комфортно разрабатывать слой машинного обучения, но практически не будет иметь опыта работы с методами RL.

· Головоломка времени и затрат. Более техническое соображение заключается в том, что RL все еще требует значительного количества итераций, чтобы прийти к жизнеспособному ответу. Таким образом, его первые приложения были разработаны в Интернете, где трафик высок. Существуют разные подходы, которые мы можем использовать для смягчения этого требования, например, использование различных методов выборки или сокращение множества вариантов оптимизации (например, оптимизация некоторых кампаний, но не всех из них), но лучший подход - использовать ML для быстрого -следить за первоначальной реализацией, в чем заключается ирония процесса.

Вернемся к нашему примеру. RL начал с общего мнения о том, какую тактику использовать, назначив по 20% каждой тактике A-B-C-D-E. Но благодаря экспериментам мы знаем, что Джейн больше реагирует на тактику А, а с помощью машинного обучения мы знаем, что правильная тактика А - это средняя сложность, скидка 5%. Это экспериментальное знание означает, что мы можем значительно ускорить выполнение первоначальной задачи по формированию мнения, используя знания, полученные на первом этапе. RL будет продолжать выборку и циклически повторять другие тактики, но сойдется гораздо быстрее, чем если бы мы никогда раньше не экспериментировали. Вот почему это шаг 1 в нашей аналитической дорожной карте, потому что нам лучше начать с него.

Вывод таков: хотя RL со временем учится и адаптируется к изменениям, мы получаем гораздо более быстрые результаты, выполняя Шаг 1 перед Шагом 3, по сравнению с попытками решить две проблемы одновременно.

Деловые соображения

Персонализированный маркетинг на основе ИИ уже стал реальностью. Компании, которые впервые приближаются к нему, должны рассматривать его как уникальное путешествие, для успеха которого требуются следующие компоненты:

Дисциплина. Для построения интеллекта требуется последовательная дорожная карта с ограниченным пространством для ярлыков, потому что в настоящее время когнитивная наука все еще предполагает, что «мозг, должно быть, видел, как выглядит хорошее». Итак, экспериментируйте и следуйте правильному порядку: оптимизируйте тактику, затем оптимизируйте тактику, затем оптимизируйте последовательность тактик.

Терпение. Вы не можете научиться умножению, пока не выучите таблицу умножения, и если на изучение таблицы умножения уходит 12 месяцев, потратьте это время; терпи это. Программы персонализации обеспечивают постоянные улучшения, но их потенциал можно использовать в течение двух-трех лет.

Универсальный талант. Маркетологи разрабатывают учебные программы и тактику, специалисты по обработке данных переводят их в эксперименты и аналитику, разработчики корректируют каналы и выстраивают маршруты, инженеры по обработке данных создают / поддерживают каналы данных, финансы прививают строгость, чтобы финансировать путешествие, а юристы устанавливают границы того, что подходящее. Поэтому, прежде чем искать самого известного гуру ИИ в Кремниевой долине, создайте сбалансированную команду, которая может объединить различные части организации, с упором на способность управлять изменениями.

Преимущества использования расширенной аналитики для персонализации

Повышенная вовлеченность, более глубокая лояльность и измеримый рост отдачи от своих маркетинговых усилий - вот некоторые из основных причин, по которым маркетинговые организации используют расширенную аналитику для усиления своих усилий по персонализации. С ними приходят дополнительные преимущества:

Уникальные данные. Инвестиции в эксперименты создают уникальный бесценный актив, который нельзя найти где-либо еще на рынке. В то время как обычное машинное обучение становится все более демократичным (в отличие от передовых приложений), тщательно отобранные данные, лежащие в основе этих механизмов, не могут быть куплены или заимствованы; они могут быть созданы только внутри.

Возможность оплатить поездку. Негабаритные доходы материализуются как минимум через 18–24 месяцев, но программы персонализации могут (и делают) поддаются быстрой отдаче и быстрой окупаемости. Мы эмпирически измерили скачки на 30-40% в чистом дополнительном доходе от гиперперсонализации подмножества существующих сегментированных тактик в 3-месячных мини-программах.

Преимущество первопроходца. Чем раньше организации начнут использовать расширенную аналитику, тем раньше они начнут рыть ров, отделяющий их от конкурентов.

Действительно, использование расширенной аналитики для персонализации - все еще относительно новое явление. Но это станет стандартной операционной процедурой. Организации, которым удастся сделать это основной частью своих маркетинговых усилий, смогут получить последующее вознаграждение.

SP