cookie

Sizning foydalanuvchi tajribangizni yaxshilash uchun cookie-lardan foydalanamiz. Barchasini qabul qiling», bosing, cookie-lardan foydalanilishiga rozilik bildirishingiz talab qilinadi.

avatar

PPC для сверхразумов | Александр Хитро

10 лет прикладываю к рекламе подорожник Автор: @podorozhnik_ppc О себе: t.me/ppc_bigbrain/865 Навигация: t.me/ppc_bigbrain/1191 Чат: t.me/+IAE-w7o7tZtjOTNi 45 отзывов о платном канале: t.me/ppc_bigbrain/1004 t.me/ppc_bigbrain/1249

Ko'proq ko'rsatish
Reklama postlari
3 436
Obunachilar
+324 soatlar
+297 kunlar
+12530 kunlar

Ma'lumot yuklanmoqda...

Obunachilar o'sish tezligi

Ma'lumot yuklanmoqda...

04:28
Video unavailableShow in Telegram
👍 Тизер автогруппировки 35 тысяч фраз за 2 минуты в Power Query. Вчера в конце 4,5-часового стрима чёт нимношк поугарал на иронии. Разобрал на эфире итоги всего, к чему мы шли весь май, а также решение огромного количества прожитых болей за все 10 лет моей карьеры в маркетинге. 🔸 Где применяются обработанные данные: — В контекстной рекламе. — В SEO. — В таргетинге в соцсетях (ВК, FB, MT, TG). — В контентных стратегиях для ведения соцсетей. — В скриптах отдела продаж. 🔸 А также для приоритизации порядка: — Подготовки графических материалов для контекста и таргета. — Изготовления креативов для соцсетей и запуска таргета. — Расположения слайдов в рекламных постах с несколькими фотками. — Сценок в видеокреативах. — Разработки разделов и страниц сайта. — Сортировки на сайте: А) Категорий. Б) Кнопок навигационного меню. В) Фильтров и/или облака тегов над/под/рядом с галереей. 🔸 Темы, рассмотренные на стриме: — Демонстрация шаблона PQ. — Связи запросов. — Сценарии применения полученных данных. — Приоритизация сегментов. — 90% кумулятивного накопления частотности кластера. — Фильтрация в 1 клик любого кластера. — Порядок группировки семантики для рекламных кампаний. — Логика автоматического сопоставления групп ключей со списком URL. — Применение полученных данных в 10 различных сферах маркетинга и продаж. — Общение с заказчиком, имея на руках обработанные данные. via @ppc_bigbrain
Hammasini ko'rsatish...
🦍 (3/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1 и часть 2. Пока шаблон привязан "хардкодом" к названиям и количеству столбцов в этом проекте, но и не было задачи заниматься параметризацией. До универсализации ещё далеко, но запрос PQ уже оптимизирован так, чтобы можно было переделать его под другой проект. На объёмах в 575 тысяч неуникальных фраз из 330 выгрузок планировщика Гугла, из которых уникальных — 70 тысяч фраз, и из них целевых с ненулевой частотностью — 35 тысяч фраз, PQ выполняет ~300 преобразований данных за 2 минуты. Зачем мне столько фраз? Да специально, чтобы на больших объёмах протестить. 2 дня назад, когда операций было в 5 раз меньше, но скорость запроса не была оптимизирована, он выполнялся за 10-15 минут. Теперь он в 5 раз сложнее и больше по объёму, но отрабатывает за 2 минуты. О — оптимизация. Для полного хлебушка с нулевым опытом в разработке очень достойный результат, ящщетаю.
На последнем скрине — связанные запросы PQ. Эти связи — то, что под капотом у автоматизации сквозного обновления данных.
Похимичу ещё с типами извлекаемых и сопоставляемых объектов (списками, записями, таблицами) и попробую ускорить запрос ещё в несколько раз. ———— Следующие шаги: 💓 Избавление от хардкода. 💓 Параметризация переменными. 💓 Замена синонимов на единое написание. 💓 Убрать неявные дубли иностранных фраз. 💓 Ускорение запроса. 💓 Лишние запросы заменить функциями. 💓 Уменьшить количество подключений в 10 раз. 💓 Гибкость и юзерфрендли. Турбокомбайн уже на подходе. Подробнее о нём: — Часть 1Часть 2Часть 3Часть 4Часть 5 За 3 дня с чистого листа собрал самое крутое, что я когда-либо делал за 10 лет карьеры. Дико рад, что наконец пересилил себя, сел и сделал. Энергии от полученных результатов хватит ещё на пару месяцев разработки. ———— Сегодня в 19:00 по МСК на стриме покажу, как работает этот комбайн, и расскажу, что с ним делать, чем он будет полезен и при запуске РК, и при аналитике, и при оптимизации рекламы. ———— via @ppc_bigbrain
Hammasini ko'rsatish...
😮 (2/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1. При группировке в шаблоне PQ не учитываются и не являются группообразующими критериями: 🔸 Морфология (словоформы). 🔸 Порядок слов в строке. 🔸 Стоп-слова (служебные части речи). 🔸 Повторы слов в строке. 🔸 Повторы категорийных ярлыков в строке (дубли игнорируются). 🔸 Повторы ярлыков добавок в строке (аналогично). 🔸 Добавки можно использовать как критерии группировки опционально в высокочастотных кластерах, где много фраз с ними, но в средне- и низкочастотных кластерах любыми видами добавок можно пренебречь во избежание чрезмерного дробления лишних сущностей в аккаунте. 🔸 Информационные добавки и ранние этапы спроса, т.к. они исключены из целевой семантики. ———— Но это ещё цветочки. 7 вещей, которые срывают покровы: 1️⃣ Я одновременно и очистил от мусора, и сгруппировал 35 тысяч фраз. 2️⃣ Сделал я это автоматом, не перетащив ни единой фразы вручную. 3️⃣ Перегруппировка и/или фильтрация фраз по новым спискам условий обновляется за 2 минуты. 4️⃣ Можно указать свой порядок группировки. 5️⃣ Для этого достаточно внести изменения лишь в исходные библиотеки слов. 6️⃣ Исходная семантика вообще на английском языке, который я даже не читал, да и на русском — тоже. 7️⃣ Все последующие итерации аналитики за новые периоды будут начинаться с обновления этого запроса PQ, двух минут ожидания — и данные будут обработаны, очищены от мусора и сгруппированы. А дальше можно реализовывать любые самые безумные идеи для изучения данных и за всю историю, и за новый период, и сравнивать с предыдущим, и в динамике по датам и т.д. На скринах пример результата отработки запроса. ———— Во вторник 28 мая в 19:00 по Мск покажу на стриме, как это всё выглядит и работает, и что нужно для изготовления сего чуда нанотехнологий. ———— PS. Кому вальнуть рекламу по дверям? 😂 Я одновременно и на русском, и английском собрал за 5 дней, три из которых делал шаблон PQ. 🔻 Читать продолжение. via @ppc_bigbrain
Hammasini ko'rsatish...
😎 (1/3) Автогруппировка 35.000 фраз за 2 минуты в Power Query. Доделал в PQ автоматический группировщик семантики по смыслу и намерениям, к которому постепенно шли на стримах весь май. Получилась бомбическая бомба пушка торпеда взрывчатка. Не прочитав при группировке ни единой фразы, настолько детально сгруппировать семантику за 2 минуты, вообще в неё не глядя — это ультрапобеда. В следующем посте прикрепил ряд скринов с результатами автоматической группировки. Группообразующими критериями, которые динамически пересчитываются сквозным образом через все этапы обработки данных в шаблоне, являются: 💓 Смысловые ярлыки слов. 💓 Группы ярлыков (ещё более укрупнённые смысловые группировки). 💓 Общая частотность всей группы ярлыков в 1-gram анализе. 💓 Общая частотность каждого отдельного ярлыка в 1-gram анализе. 💓 Общая частотность каждой категории независимо от порядка и морфологии её написания. 💓 Количество категорийных слов во фразе (например, категорийных слов во фразе — 1, горячих добавок — 2, геодобавка —1, а суммарно слов во фразе: 1+2+1 = 4). 💓 Комбинации категорийных смысловых ярлыков в каждой строке: а) Без учёта порядка слов, морфологии и стоп-слов. б) С учётом порядка слов, морфологии и стоп-слов. 💓 Комбинации ярлыков горячих и гео добавок в каждой строке. 💓 Для универсализации единой схемы нейминга всех кластеров извлечённые в отдельный столбец категорийные слова расположены в строке в том же самом порядке, в котором упорядочены по важности все кластеры лексики. Приведу пример. По убыванию общего объёма показов упорядочены следующие кластеры: 1. Предмет 2. Места установки 3. Конструкции движения 4. Материалы 5. Конструкции створчатости 6. Стиль 7. Разные наборы характеристик 8. Пожаропрочность 9. Конструкции строения 10. Цвета 11. Конструкция покрытий 12. Описание мест установки 13. Покрытия 14. Количественные характеристики 15. Характеристики размеров 16. Габариты 17. Единицы измерения В каждом кластере свой набор уникальных слов. В зависимости от того, какая общая частотность кластера, извлеченные категорийные слова расположены в строке в том же порядке, что и их кластеры. Отсюда автоматически рождается универсальная единая схема нейминга и категорийных кластеров, и групп объявлений для рекламного аккаунта: Название предмета рекламы — самая важная его характеристика — чуть менее важная — ещё менее важная — ещё менее важная — и т.д. 🔻 Всё не влезло. Читать дальше продолжение со скриншотами.
Hammasini ko'rsatish...

⌨️ «Пробила планку в 250к/месяц. Ультанула доход почти в 2,5 раза». На скринах продолжение истории Алёны Склядневой — панпищщицы мечты, которая научила Power BI собственную маму. Поделилась своими результатами. ———— За май на канале 17,5 часов стримов о работе с иностранной семантикой и автоматизации её обработки, чистки и группировки в Power Query: 1️⃣ Как собрать семантику под Google Ads? 2️⃣ Работа на иностранном языке в Google Ads. 3️⃣ Автоматизация запуска Google Ads на иностранных языках. 4️⃣ Массовая обработка в Power Query зарубежной семантики для Google Ads. 5️⃣ 18 способов ускорения запросов в Power Query. 6️⃣ Как со 100 тысяч страниц конкурента спарсить нужные 320 урлов для сбора по ним семантики. 7️⃣ Автоматизация обработки поисковых запросов в Power Query. ———— На следующем стриме во вторник 28 мая в 19:00 по МСК разберу автоматизацию анализа новых поисковых запросов в Power Query: ✅ Получение и обработка фраз. ✅ Фильтрация фраз блэклистом. ✅ Фильтрация фраз вайтлистом. ✅ Неучитывание неявных дублей. ✅ Интерактивный 1-gram анализ запросов (частотный словарь слов с консолидацией показателей статистики по каждому слову). ✅ Фильтрация только новых слов в общем 1-gram анализе. ✅ Получение только новых поисковых запросов. ✅ Получение статистики по датам по каждому уникальному слову (в любой группировке дат). Применимо и для Google Ads, и для Яндекс Директ. Независимо от того, в какой рекламной системе вы работаете чаще, присоединяйтесь в любом случае — полезно будет каждому. ———— Весь июнь буду разбирать на воркшопах практику автоматизации десятков процессов, которые никто из вас не хочет делать руками, но все вы вынуждены это делать через не хочу, ведь других способов вам никто не показал. Мир движется к автоматизации, так почему бы и вам не научиться чему-то новому, что расширит и ваш кругозор, и высвободит вам время, и позволит быстрее находить проблемные зоны и точки роста в рекламе, и поможет вам продавать свои услуги дороже? ———— 👉 Велкам на стримы 🫡 ———— via @ppc_bigbrain
Hammasini ko'rsatish...
😅 Автоматизация обработки новых поисковых запросов в Power Query. Сделал в Power Query автоматический быстрый шаблон для получения из Google Ads новых поисковых запросов, которые ранее не встречались в статистике аккаунта. Шаблон можно адаптировать и к точно такому же анализу поисковых запросов из Яндекс Директ в том числе. Разница будет лишь в названии столбцов и ещё паре незначительных моментов. Что выполняется автоматически за 150 шагов преобразований данных: 1️⃣ Выведение в интерактивную сводную таблицу с разными фильтрами и группировками списка только новых поисковых запросов только за новый диапазон дат. 2️⃣ Автоматическое удаление из получаемого списка фраз: ✅ Неявных дублей ранее несогласованных заказчиком фраз на всех предыдущих этапах согласований семантики с его стороны. ✅ Неявных дублей остановленных и активных ключевых фраз в аккаунте. ✅ Неявных дублей уже исключённых мусорных фраз. Теперь получение не входящих ни в один из выше перечисленных трёх списков новых поисковых запросов вместе с их статистикой, занимает меньше минуты. 3️⃣ Автоматическое назначение всем словам их смысловых ярлыков и групп ярлыков. 4️⃣ Автоматическая группировка семантики по смысловым ярлыкам слов и укрупнение группировки до групп ярлыков. 5️⃣ Порядок группировки учитывает важность каждого кластера (показатели статистики) и всех вложенных в него более мелких кластеров. 6️⃣ Возможность выбора, учитывать ли при группировке фраз все виды добавок (горячие, гео, информационные, ранние этапы спроса и т.д.) или пренебречь ими вовсе. 7️⃣ Автоматическая консолидация конверсий, кликов, показов, расходов и вычисление CPA, CR, CTR, CPC на любых уровнях группировки семантики: ✅ На уровне групп ярлыков. ✅ На уровне смысловых ярлыков категорийных слов. ✅ На уровне смысловых ярлыков добавок. ✅ На уровне поисковых запросов. 8️⃣ Консолидация показателей на уровне одной самой частотной словоформы каждой леммы (начальной словарной формы) запроса с учётом стоп-слов, остальные неявные дубли игнорируются. ———— Позже доработаю автоматизацию добавления новых фраз в соответствующие группы объявлений в аккаунте, чтобы запуск целевых ключей, собранных из новых поисковых запросов, занимал не весь рабочий день, а 5-10 минут. Спойлер: Я не программист, и владею языком M и DAX в Power Query на супербазовом уровне чайника. Сам ежедневно смотрю на ютубе обучающие ролики. Для оптимизации скорости отработки эти 150 шагов можно сократить раза в два, если убить на это ещё несколько дней. Но даже текущее состояние шаблона — это уже настоящий мегапрорыв в экономии времени, хоть я его и делал с нуля, тестировал, переделывал, оптимизировал скорость отработки и доводил до ума 13 часов подряд. А если ещё раз переделать всё с полного нуля, но с учётом нескольких крутейших шустрых функций, скорость отработки будет ещё выше. Рассмотрим сегодня на стриме темы: ⚡ Группировка семантики на английском языке в Power Query и сводных по модели данных ⚡ Покажу новый автоматический шаблон с результатами обработки и группировки новых поисковых запросов. Объяснять его создание с нуля не буду, сейчас нет цели разжёвывать все 150 операций преобразований данных, просто покажу вкратце, что он делает. Получилась пушка. К началу стрима по такой же логике оптимизировать скорость выполнения запроса по обработке ключей на английском языке уже не успеваю, там массив данных огромный. Покажу готовые результаты отработки сделанной неделю назад версии, которая пока не оптимизирована и медленная как улитка, но зато рабочая. Я не собираюсь сейчас продавать вам никакие файлы-шаблоны, а лишь покажу, как можно делать, для чего всё это делается, как это поможет в дальнейшем, и сколько времени вы можете экономить ежемесячно, в том числе все ваши сотрудники и коллеги. ———— Дата: сегодня, 23 мая. Время: через час в 19:00 по МСК. Место: турбочятик. Памписка: 10 000 ₽/мес. Запись: будет. ———— Сорямба за столь поздний анонс, только закончил всё это делать. До встречи. via @ppc_bigbrain
Hammasini ko'rsatish...

🗯 ChatGPT: 18 шагов стратегии развития Ъндекс Шмирект Здесь прекрасно абсолютно всё. Даже немножечко захотелось плакать. Я ему даже не подсказывал ничего. —–—— Все действующие лица, названия, объекты и события являются вымышленными и фиктивными, ничего не имеющими с действительностью, все совпадения с реально существующими людьми и компаниями случайны, публикация создана исключительно в юмористических целях, не преследует цели кого-либо оскорбить или задеть, любая другая её трактовка будет неверной, всю ответственность за любой возможный причинённый ущерб от сгенерированного текста единолично несёт компания OpenAI, разработавшая ChatGPT. via @ppc_bigbrain
Hammasini ko'rsatish...
01:16
Video unavailableShow in Telegram
по мотивам заказчик по ремонтам квартир: *чёто заявок мало подкрутите там рекламу я вам за что деньги плачу также он: ——— вы никогда не угадаете концовку via @ppc_bigbrain
Hammasini ko'rsatish...
Photo unavailableShow in Telegram
литералли ми после каждого аудита via @ppc_bigbrain
Hammasini ko'rsatish...
😱 1035🤮 897💩 584😢 279👎 251🤬 174 7
🗯 ChatGPT об РСЯ, фроде, автотаргете, ЕПК и менеджерах. Через ролевые игры попросил его написать ехидные саркастичные шутки на разные темы. С тон оф войса в некоторых шутках даже я охерел. Модельке для обучения, похоже, скормили все русскоязычные чаты и форумы по контекстной рекламе. А иначе как ещё объяснить всё это. Фотошопа на скриншотах нет. via @ppc_bigbrain
Hammasini ko'rsatish...
😱 151🤮 109👎 89😢 42🤬 22💩 15
Po'stilar arxiv