cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

PPC для сверхразумов | Александр Хитро

10 лет прикладываю к рекламе подорожник Автор: @podorozhnik_ppc О себе: t.me/ppc_bigbrain/865 Навигация: t.me/ppc_bigbrain/1191 Чат: t.me/+IAE-w7o7tZtjOTNi 45 отзывов о платном канале: t.me/ppc_bigbrain/1004 t.me/ppc_bigbrain/1249

Show more
Advertising posts
3 377
Subscribers
+324 hours
+257 days
+10430 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

💻 Делаю парсер планировщика ключей Google Ads. Плотно изучаю Browser Automation Studio (BAS) и делаю собственный парсер Google Ads Keyword Planner (далее — KWP): — По списку ключевых фраз. — По списку доменов. — По списку точных URL. Каждый из трёх способов сбора данных — сама по себе задача в задаче, и это будет, считайте, три софта в одном. Это будет десктопное приложение, запускаемое *.exe файлом. Софт будет платным, защищён лицензией и активироваться на моей стороне. Для сбора данных каждый пользователь будет логиниться в свой аккаунт Google. Помимо трёх способов сбора ключей поддерживаться будет весь доступный функционал в браузерной версии KWP: — Указание региона. — Указание языка. — Указание диапазона дат истории частотностей. Фразы или ссылки будут импортироваться из файла. Когда будет готово — не могу сказать. Я только начал. Буду делиться новостями об этапах разработки. Разбираюсь в BAS и сразу делаю на практике всё освоенное. Цену скажу позже. Моя давняя мечта — автоматизировать многопоточный парсинг KWP с сохранением всего его доступного функционала. За 8 лет работы с Google Ads ни разу не видел ни одного инструмента, который парсит KWP одновременно и по списку ключей, и по списку доменов, и по списку точных урлов. Я человек максимально простой: я не нахожу готовых решений — я делаю своё. via @ppc_bigbrain
Show all...

😮 Как со 100 тысяч страниц конкурента спарсить нужные 320 урлов для сбора по ним семантики. На следующем стриме 14 мая в 19:00 по МСК помимо чистки и группировки зарубежной семантики, а также 18 способов оптимизации скорости запросов в Power Query покажу ещё несколько важных вещей: ✅ Как я с огромного сайта конкурента спарсил только нужные мне пару сотен урлов. ✅ А дальше по ним из планировщика Google Ads получил 70 тысяч уникальных фраз. Не копировать же мышкой из навигационного меню сайта каждую из 320 ссылок вручную, правильно? Спойлер: Урлы с огромного сеошного сайта конкурента спарсил в Screaming Frog SEO Spider. ———— Но есть три нюанса: 1⃣ На анализируемом сайте более 100 тысяч урлов. Для того, чтобы сократить время парсинга и не собирать ненужные мне урлы, я парсил их с учётом фильтров по исключённым RegEx (регулярным выражениям). В итоге сбор закончился в несколько сотен раз быстрее, чем если бы собирались все страницы сайта. 2⃣ Даже парсинг с исключениями по регуляркам не спасает от сбора вложенных подкатегорий и неявных дублей урлов, поэтому покажу, как в Power Query или в Excel в несколько действий в результатах парсинга отфильтровать только нужные пару сотен категорийных урлов. 3⃣ Парсить по включениям регулярок, казалось бы, самый простой способ, чтобы сократить объёмы собираемых данных, но парсинг по включению регулярок опаснее всего, т.к. вы не знаете, какая структура у незнакомого сайта, и как его разработчики распределили в структуре категорийные урлы. Почему? Потому что структуры может не быть вообще никакой, и все урлы могут запросто лежать в главной директории сайта вторым уровнем вложенности страниц, а не распределены по подпапкам в суб-директориях. Естественно, можно было бы спарсить только те урлы, которые не более второго или третьего уровня вложенности, но мы не знаем, какая на сайте структура дерева страниц. Поэтому парсить по вхождению регулярок будет огромной ошибкой. ———— Дальше по собранным и отфильтрованным категорийным урлам конкурента выгружаем семантику из планировщика ключей Google Ads для сбора вложенной глубины и синонимичной ширины семантики каждой исходной категории. Как настроить парсинг ссылок с сайта с учётом исключённых регулярных выражений и отфильтровать нужные категорийные урлы, рассмотрим на следующем стриме, чтобы вы не страдали и не собирали урлы из навигационного меню сайта, копируя мышкой поштучно каждую ссылку на каждый раздел. ———— 😘 Присоединяйтесь, будет жир. ———— via @ppc_bigbrain
Show all...

💃 16 способов ускорения обработки данных в Power Query. На прошлом стриме разобрал: 🔤 Как собрать детализированную семантику на любых иностранных языках, на которых вы не знаете ни слова.
На следующем эфире во вторник 14 мая в 19:00 по МСК разберу: 🔣 Как быстро обработать, очистить и сгруппировать зарубежную семантику, не зная ни единого слова ни на одном из иностранных языков.
——— Также рассмотрим 16 способов ускорения выполнения больших сложных запросов из множества шагов в Power Query (далее — PQ). Обрабатывать буду большой объём данных: 🔥 320 файлов выгрузок из планировщика ключей Google Ads. 🔥 575 тысяч фраз с учётом дублей. 🔥 70 тысяч уникальных фраз. ——— Что за 16 способов оптимизации запросов PQ? 1️⃣ Функция DIVIDE с проверкой на ошибки в вычисляемых полях сводной таблицы по модели данных. 2️⃣ Вычисляемые поля с обращением к столбцам из разных таблиц в модели данных. 3️⃣ Связи таблиц по уникальным значениям в модели данных. 4️⃣ Индекс уникальных значений в таблице модели данных ("интовое" поле, от англ. "integer" — целое число, т.е. целочисленный тип данных). 5️⃣ Объединение таблиц по "интовому" полю:           ✅ В модели данных.           ✅ В Power Query. 6️⃣ Сводные таблицы, построенные из нескольких таблиц модели данных. 7️⃣ Сравнение скорости обновления запросов PQ при объединении таблиц по текстовому и интовому полю. 8️⃣ Сравнение скорости обновления сводных таблиц, построенных:           ✅ По одной широкой таблице, в которой в PQ объединено несколько таблиц левым внешним объединением.           ✅ По нескольким узким таблицам с уникальными значениями, связанными в модели данных по общему интовому полю. 9️⃣ Автоматическая лемматизация семантики для "схлопывания" в одну строку всех словоформ слов. 1️⃣0️⃣ Автоматическое разворачивание слов во фразах от А до Я для "схлопывания" в одну строку всех неявных дублей с другим порядком слов. 1️⃣1️⃣ Автоматическое удаление из фраз всех стоп-слов (союзов, частиц, предлогов, местоимений) для "схлопывания" в одну строку всех фраз со стоп-словами и без них. 1️⃣2️⃣ Уменьшение в расширенном редакторе запросов любого количества шагов запроса PQ до одного шага для многократного ускорения выполнения всего запроса PQ. 1️⃣3️⃣ Как грамотно причесать этот один шаг до читабельного внешнего вида, чтобы можно было потом ориентироваться в списке шагов и редактировать весь запрос PQ. 1️⃣4️⃣ Буферизация пользовательских библиотек данных. 1️⃣5️⃣ На каких шагах запроса PQ с анпивотом надо объединять таблицы, а на каких — нельзя и почему. 1️⃣6️⃣ Ошибка объединения таблиц по полю с неуникальными значениями. Это далеко не всё, что касается оптимизации скорости выполнения запросов PQ и скорости обновления сводных таблиц по модели данных.
Если вы знаете, что такое ВПР, то всё это — ВПР на героине в степени триллион. Если не знаете — научитесь сразу продвинутому ВПРу.
На следующих ивентах все остальные шаги будем делать с учётом перечисленных выше продвинутых способов оптимизации скорости запросов: ⚡ Объединять запросы по интовым полям. ⚡ Связывать таблицы в модели данных по интовому полю. ⚡ Строить все сводные по нескольким таблицам в модели данных. Будете сразу учиться делать правильно и результаты обработки данных получать быстро, а не страдать и ждать вечность, пока обновятся все запросы PQ. ——— Дата: вторник, 14 мая. Время: 19:00 по МСК. Место: турбочятик. Памписка: 10 000 ₽/мес. Запись: будет. ———
Дисклеймер: Специалистом по работе с базами данных я не являюсь. И я никто, чтобы учить с ними работать безукоризненно правильно. Я лишь проживал страданиями на практике всё описанное выше. Поэтому не могу не придать значимость всем этим вещам и не предотвратить в вашей жизни эти стрессы заблаговременно.
via @ppc_bigbrain
Show all...

📰 В 19:00 по МСК стрим про массовую обработку в Power Query зарубежной семантики для Google Ads. На данном этапе "зарубежная" она лишь постольку поскольку, ибо в конце прошлого эфира я наглядно продемонстрировал, почему исходный язык семантики не имеет никакого значения. Сегодня продолжу тему того, как вся дальнейшая автоматизация работы в Power Query и в сводных таблицах по модели данных будет делаться только на русском языке, и к вычитке зарубежной семантики даже приступать не будет никакой необходимости. А раз все массовые операции будут выполняться на русском языке, приглашаю вас присоединиться к эфиру, вам ведь всё равно работать дальше на русском в Яндекс Директ, даже если вы прямо сейчас с Google Ads не работаете. Выполняемые операции абсолютно идентичны как для Google Ads, так и для Яндекс Директ. Увидите, какие чудеса можно за считанные клики вытворять с большими списками ключей. Я вам обещаю, у вас картина мира рухнет, и вы будете рвать на голове последние седые волосы от того, сколько времени вы, ваши коллеги и ваши сотрудники палите впустую на ручную ерунду. 😊 Го, я создал За 5 минут до начала стрима поделюсь ссылкой на конференцию в Zoom. via @ppc_bigbrain
Show all...
Tribute

This bot helps content creators receive financial support from their followers directly in the app.

📰 Автоматизация запуска Google Ads на иностранных языках. В среду 7 мая на стриме в закрытом канале за 3 часа разобрал работу с семантикой на зарубежных языках, и как в Power Query сделать так, чтобы было вообще без разницы, с какими языками работать. Если собираетесь или уже работаете с иностранной рекламой на регулярной основе — инфа мастхэв 146%. ——— Разобранные темы: 💊 Сбор большой семантики с сайтов конкурентов. 💊 Особенности и подводные камни переводов нейронками. 💊 Перевод огромных списков фраз бесплатно за 2 секунды. 💊 Объединение файлов выгрузки семантики в один список. 💊 Группировка файлов по полю с ключевыми фразами (продвинутый аналог удаления дублей). 💊 Обработка исходной собранной семантики. 💊 Обработка переведённой семантики. 💊 Объединение переводов с исходной семантикой. 💊 Интерактивный 1-gram анализ переведённой семантики (более совершенный аналог анализа групп в Кейколлекторе). 💊 Назначение словам их смысловых ярлыков. 💊 Объединение смысловых ярлыков слов с исходной семантикой. 💊 Группировка 1-gram анализа в порядке приоритета смысловых ярлыков слов. ——— Сегодня на стриме в 19:00 по МСК покажу, как простейшими действиями в Power Query и сводных таблицах по модели данных из собранной семантики сделать готовые РК: 🔸 Массовое назначение семантике огромного количества смысловых ярлыков и групп ярлыков. 🔸 Массовая автоматическая фильтрация семантики по смысловым ярлыкам и группам ярлыков. 🔸 Как вместо сбора блэклиста слов фильтровать семантику вайтлистом слов. 🔸 Как автоматически сгруппировать семантику по смыслу и намерениям в порядке приоритета смысловых ярлыков и групп ярлыков. 🔸 Как грамотно и быстро согласовать с заказчиком все сегменты семантики. 🔸 Как сделать библиотеку замен синонимов на единое значение во избежание их разбивки на разные группы. 🔸 Как быстро подготовить готовую к загрузке на сервер РК. 🔸 Как определить, под какие недостающие сегменты делать новые посадочные страницы и в каком порядке. 🔸 Как определить, в каком порядке располагать разделы и кнопки навигационного меню на сайте. 🔸 Какие кастомные условия фильтрации сразу при запуске РК создать в Google Ads, чтобы в 1 клик анализировать главные, второстепенные, спорные и другие специфические сегменты групп объявлений, ключевых фраз и поисковых запросов. ——— На следующих стримах буду разбирать дальнейшие этап работы в Power Query на иностранных языках после запуска рекламы: 🏥 Автоматизацию последующей аналитики новых поисковых запросов 🏥 Автоматизацию сбора минус-слов и минус-фраз из новых поисковых запросов 🏥 Автоматизацию сбора из поисковых запросов новых целевых ключевых фраз 🏥 Автоматизацию группировки новых поисковых запросов 🏥 Ускорение добавления новых фраз из поисковых запросов в ближайшие по смыслу существущие группы объявлений и создание новых групп ——— Дата: сегодня, 9 мая Время: 19:00 по Мск Место: турбочятик Запись: будет Памписка: 10 000 ₽/мес Что входит: материалы с августа 2023 и все ивенты в течение месяца с момента оплаты. 45 отзывов: часть 1, часть 2. ——— via @ppc_bigbrain
Show all...

ТОПы, которые мы не просили, но которые мы заслужили Люблю от третьих лиц узнавать, как по независящим от меня причинам я в очередной раз попал в какие-то ТОПы специалистов или каналов по контекстной рекламе. Штош, ещё два в копилочку: 1) https://vc.ru/983706 2) https://t.me/DigitalAgafonov/848 Имхо, характеристика "мега умный, но слишком заморачивается" — это самый большой комплимент, который только может получить технический специалист. Чесн, всегда люто кринжую от подобных ТОПов, ибо щщетаю себя бесполезным овощем и по сей день нахожусь в недоумении, почему вы все здесь собрались, и что вам всем от меня нужно)))00)000 👤 Не устраивайте, плес, холивары в комментариях авторов списков, кто кого лучше-хуже или выше-ниже в списке. Всё это ради фана онли. via @ppc_bigbrain
Show all...
📰 Зависят ли CPA, CR, CTR и CPC от качества объявлений в Google Ads? По легендам из-за низкого качества адаптивных объявлений показатели якобы хуже. Я решил это проверить. В текущем проекте в каждой группе сделал по две адаптивки с разными текстами и заголовками, в одном объявлении шаблон {KeyWord} для вставки ключа, в другом — 4 статических заголовка. Раньше для анализа объявлений приходилось вручную открывать каждую группу, возвращаться назад, открывать следующую, что дико бесило. Психанул и собрал в Looker Studio на уровне МСС аккаунта 4 новых отчёта, между которыми теперь переключаюсь в 1 клик и вижу всё необходимое. В срезе качества объявлений на уровне кампаний и ТОП-30 групп по объёму лидов и кликов в гистограмме с накоплением отображается: 🔸 1 и 2 скрин — CPC и клики. 🔸 3 и 4 скрин — CTR и клики. На скринах 1–4 группы отсортированы по убыванию кликов. 🔸 5 и 6 скрин — CPL и лиды. 🔸 7 и 8 скрин — CR и лиды. На скринах 5–8 группы отсортированы по убыванию лидов. Т.к. у одной группы сильный перевес кликов и лидов, для выравнивания гистограммы их распределения по группам в отчёте справа логарифмическая шкала, а не линейная, как слева. 🔸 9 скрин — общая статистика этой РК по датам для полноты картины суточного объёма трафика и лидов. Надеялся на уровне групп в левой части отчёта увидеть что-то полезное для оптимизации РК, но обломался, не найдя ничего толкового, ибо нужно накопить 800 миллиардов вагонов данных с одновременным выполнением сразу трёх условий: 1️⃣ По каждой группе накоплена статистически достоверная выборка данных. 2️⃣ По каждому объявлению в группе накоплено достаточно статистики как по кликам, так и по лидам. 3️⃣ Объявления в каждой группе должны иметь разное качество. Чтобы докопаться до истины, зависит ли от качества объявлений хоть один показатель, остаётся ждать проекта с огромной накопленной статистикой адаптивных объявлений либо год-два накапливать её самому. Но для анализа хоть инструмент теперь готов))00))000 😳👍 Убейте меня уже кто-нибудь, умоляю. via @ppc_bigbrain
Show all...
🤔 Как рассчитать "качество настройки рекламы"? Холиварный вопрос из чата №46 от 05.05.24:
Математически можно рассчитать % конверсии сайта, % конверсии отдела продаж, % конверсии из заявки в покупку, а как рассчитать "качество настройки рекламы"?
Реклама существует только ради зарабатывания денег, и конечная метрика оценки её эффективности — это её окупаемость. Но если главные бизнес-показатели сразу со старта неудовлетворительные, то критериев оценки работы маркетолога всего три: 1️⃣ Как часто и какие именно вносились изменения в рекламу для достижения необходимых показателей? 2️⃣ Как часто и какие именно вносились изменения на сайте? 3️⃣ Сколько раз и как часто маркетолог всё переделывал за собой с нуля? Сюда не идут в счёт: ❌ Бездумное ожидание траты ещё большего бюджета и накопления статистики с нулём предпринятых действий. ❌ Бездумная копипаста кампаний, аккаунтов, сайтов. Это не работа, а казино. ——— В посте скрины оцифровки самого сложного зарубежного b2b-проекта за всю мою 10-летнюю карьеру: когда, сколько раз, как часто, что именно делалось и к чему это приводило по месяцам, неделям, датам, кампаниям, группам, ключам. 🔸 Регулярность изменений в аккаунте Google Ads: Скрин 1 — сводная таблица в срезе внесённых изменений по месяцам (слева сверху) и неделям (слева снизу). Часы вывел ради интереса, во сколько я работаю. Вывод — круглосуточно. Эту почасовую гистограмму нужно ещё сместить в уме на 2 часа назад из-за разницы в часовых поясах с аккаунтом. Скрин 2 — матрица с посуточной тепловой картой внесённых изменений в динамике трёх месяцев. 🔸 Прорывные мгновенные результаты: Скрины 3–4 — скачок в лидгене с 16 апреля спустя 2,5 месяца регулярных запусков всё новых и новых списков ключевых фраз, которые я собирал из истории поисковых запросов и запускал каждые 2 недели. Скрины 5–6 — ещё один прорыв 4–5 мая с новых ключей, которые за 2 дня принесли +72% лидов в РК. ——— А как вы оцениваете "качество настройки рекламы" и куда важнее — "качество ведения рекламы"? ——— via @ppc_bigbrain
Show all...
😱 (2/2) Считать ли прогнозные цены кликов и искренние ставки? 🔺 Продолжение части 1. Когда клиенты просили прогноз лидов, я нехотя лез в прогнозы Гугла или Яндекса и делал таблицы, в которых было 10 вариантов коэффициента конверсии (см. скриншоты), чтобы сфокусировать внимание клиентов на том, что увеличение объёма лидов и снижение цены лидов в первую очередь лежит в конверсии сайта, а не в параметрах рекламных кампаний и настроек таргетингов. И что мне отвечали клиенты на эти "прогнозы"?
"Отлично, делаем тогда не 1%, а 10% конверсии сайта. Цена лида будет в 10 раз ниже".
Для увеличения количества конверсий с поиска у меня ещё ни разу в моей карьере не получалось повлиять в десятки раз ни на количество показов, ни на CTR, ни на цены кликов, ни на количество кликов, ни на общий расход. Но у меня неоднократно получалось в десятки раз поднять конверсию сайта: с 0,5% до 35% — в 70 раз — с 1 лида в неделю до 15 лидов в день, или же с 0,5% до 18% — в 36 раз — с одного лида в три дня до 15 лидов в день. И было множество случаев повышения конверсии в 3–5 раз: с 4% до 20%, с 8% до 24% и другие похожие цифры. И всё это происходило без увеличения рекламного бюджета и без каких-либо медиапланов. В первой части я говорил, что расскажу, в каком сценарии есть смысл тратить время на эти расчёты. И сценарий этот — когда вы собираетесь продать клиенту огромный пул работ по доработкам сайта, навигации, юзабилити, упаковки, вовлечённости, UX/UI, коэффициента конверсии. В продаже клиентам подобных видов работ нет ничего лучше и действеннее, чем показать ему, какие показатели возможны, если конверсию сайта поднять всего лишь на 2-3%, а какие — если её поднять на 10%. Вменяемый предприниматель мгновенно скажет вам: "Куда переводить деньги?" Поделитесь в комментариях, а вы занимаетесь расчётами "прогнозов" и предельных цен кликов? И ради чего? И самый главный вопрос: совпадали ли хоть раз реальные показали из рекламы с тем, что вы легендарно "напрогнозировали"? via @ppc_bigbrain
Show all...
🤨 (1/2) Считать ли прогнозные цены кликов и искренние ставки? Годами вижу как представители индустрии учат новичков палить время на расчёт в прогнозах несуществующих метрик, которые никогда не имели ничего общего с действительностью. Сети у абсолютного большинства рекламодателей давно на автостратегиях, поиск у многих тоже. — Какой смысл в ручном расчёте ставок и цен кликов, если это всё равно среднее по больнице? — Как рассчитывать ставки, предсказывая коэффициент конверсии по каждому условию таргетинга? — Как это представить? — Как это реализовать технически? — Откуда взять эти данные? Столько вопросов, а ответов как ни у кого никогда не было, так ни у кого никогда и не появится. Зачем этому учить новичков, если цена клика абсолютно никак не взаимосвязана ни со ставками, ни с позицией показа, ни с объёмом трафика, ни с ценой конверсии? Пруфы, которые я призываю любого из вас оспорить, предоставив в ответ свои данные: 🔸 Зависит ли линейно цена клика на поиске в Яндекс Директ от размера ставок? (часть 1, часть 2, часть 3, часть 4) 🔸 Меньше ли цена конверсии при меньшей цене клика в Яндекс Директ? (часть 1, часть 2, часть 3, часть 4) 🔸 16 ребусов для сверхразумов: что зависит от позиции показа? (часть 1, часть 2) И предлагаю ознакомиться с тем, в каких объёмах в действительности списываются деньги за клик по отдельным ключевым фразам: 🔸 Как сверхразумы цену клика в Директе снижают (часть 1, часть 2) Буду премного благодарен любому, кто мне популярно объяснит, как он, глядя на скриншоты в последнем посте, собрался прогнозировать CPC, когда они по каждому отдельно взятому ключевику в разные моменты времени отличаются в 10–40 раз и более? Что вам даст среднее прогнозное значение CPC, если она изменяется во времени? Если CPC по одному ключевику в разное время отличается в 10–40 раз, а условный коэффициент конверсии в "медиаплане" всегда берётся с потолка, то и какой смысл во этих прогнозах, если итоговые показатели можно как поделить, так и умножить хоть на сто, хоть на тысячу, хоть поделить на ноль? В следующем посте расскажу, что имеет смысл рассчитывать перед запуском рекламы, и в каком сценарии эти затраты времени целесообразны. 🔻 Читать дальше часть 2 via @ppc_bigbrain
Show all...