cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

PPC для сверхразумов | Александр Хитро

10 лет прикладываю к рекламе подорожник Автор: @podorozhnik_ppc О себе: t.me/ppc_bigbrain/865 Навигация: t.me/ppc_bigbrain/1191 Чат: t.me/+IAE-w7o7tZtjOTNi 45 отзывов о платном канале: t.me/ppc_bigbrain/1004 t.me/ppc_bigbrain/1249

Show more
Advertising posts
3 449
Subscribers
+524 hours
+17 days
+8630 days
Posting time distributions

Data loading in progress...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
Publication analysis
PostsViews
Shares
Views dynamics
01
🤔 12 шагов в таргете и смм для производств и b2b. снова зашёл разговор о разделении труда сммщиков и таргетологов. я эти позиции никогда не разделял, ибо занимался обоим одновременно, и в контексте коммерческих аккаунтов одно не может существовать без другого. до сих пор не понимаю, почему эти две вещи называют разными словами, если всё это сммщик. какой смысл сидеть делать контентную стратегию, писать тексты, делать графику для постов, делать сценарии для роликов, снимать, монтажить это всё, и в итоге не сделать из этого всего промо материалы и не запустить посты в рекламу? я этим занимался в одно лицо несколько лет и не умер. и не понимаю тех, кто их разделяет. Николай дальше спросил: «а как ты будешь писать про какие-то там станки по фрезеровке, например?» да элементарно. про это всё уже давно всё написано в спецификациях и каталогах производителей. я сам в металлообработке несколько лет проработал прямо на предприятии и в цехах, и как маркетолог. не нужно быть сверхразумом, чтобы у шарящих людей на предприятии спросить нужную инфу или спросить, где её взять. тем более в эру GPT, который пересказывает ранее написанное. станки не появляются каждый день новые. способы их применения не появляются каждый день новые. обрабатываемые материалы и виды операций не появляются каждый день новые. про всё это в интернете контента в изобилии. 1️⃣ берёте готовое, переписываете, профит. 2️⃣ берёте ссылки с сайтов конкурентов или тайтлы этих страниц, суёте в GPT, запрашиваете список тем, про которые ещё можно было бы рассказать, если совсем не у кого спросить, и не имеете ни малейшего представления об отрасли. 3️⃣ с этих же сайтов конкурентов берёте ссылки и собираете по ним:      🔆 семантику — ещё больше инсайтов, о чём можно рассказать о каждом сегменте.      🔆 метатеги страниц — точный список для создания: — новых страниц. — органических постов. — рекламных постов. 4️⃣ собираете семантику, делаете анализ униграмм и биграмм из которых состоят фразы, делаете контент в порядке убывания охвата каждого кластера. 5️⃣ группируете униграммы в похожие по смыслу кластеры. и делаете:      🔆 тематические страницы на сайте.      🔆 тематические подборки в органических и рекламных постов, ведущих на специально созданные для этого страницы на сайте.      🔆 тематические видео всех возможных ресайзов под все форматы размещения и плейсменты в соцсетях и контекстной рекламе.      🔆 сео на эти тематические страницы.      🔆 контекст на эти тематические страницы. 6️⃣ эти укрупнённые кластеры группируете в ещё большие группы кластеров, и делаете из них уже не подборки, а классификацию характеристик или любых других сегментов. 7️⃣ всё это делается в порядке убывания объёма общего охвата в лексике отрасли. 8️⃣ запрашиваете у отдела продаж обратную связь:      🔆 что и в каком порядке спрашивает входящий поток обращений, что для них является фактором принятия решения, а что - фактором отказа.      🔆 что и в каком порядке спрашивает отдел продаж у потенциальных клиентов, что яаляется квалификационными критериями, что является фактором отвала в неквал.лиды 9️⃣ запрашиваете у владельца инфу о продажах:      🔆 что приносит: — больше выручки — больше прибыли — с меньшим циклом сделки — чаще продаётся в месяц это то, что станет драйвером контентной стратегии и для органических, и для промо постов, и для контента сайта.      🔆 по каким сегментам продажи реже, но их нужно увеличить. под них создаётся отдельная контентная стратегия, как и с чем эти редкие сегменты объединить и сгруппировать в нечто большее и общее. 1️⃣0️⃣ сделать на сегменты с просадками упор:      🔆 на сайте.      🔆 в органических и промо постах.      🔆 в контекстной рекламе на поиске и в сетях.      🔆 в сео. 1️⃣1️⃣ добавляете соушал пруфы, вещественные доказательства, результаты выполненной работы, визуальную упаковку фотками и видео, видеоинтервью с исполнителями и клиентами. 1️⃣2️⃣ вся эта инфа собирается и упаковывается воедино в контентную стратегию минимум на полгода ежедневных публикаций. это базовый минимум. via @ppc_bigbrain
4470Loading...
02
открывай агентство, говорили они будешь богат, говорили они счастье повалит, говорили они via @ppc_bigbrain
8360Loading...
03
Новые слои функционала и универсализация шаблона Power Query Нашёл и по несколько раз пересмотрел множество разных видосов по Power Query, которых, кажется, должно хватить, чтобы параметризировать в шаблоне всё, что должно динамически пересчитываться, не вынуждая пользователя делать какие-либо операции вручную. Неделями вынашиваю в голове план того, как и что будет преобразовываться, и куда какие данные будут передаваться на все последующие шаги, чтобы не наломать дров и потом не переделывать. Чёткий алгоритм действий уже сложился, осталось теперь только сесть и сделать. Всю эту и следующую неделю занимаюсь реализацией всего задуманного и спланированного. Зато потом будет очень легко и быстро всё это адаптировать с Google Ads под Яндекс Директ, и не просто под один тип отчёта, а под анализ и ключей, и поисковых запросов, получаемых как выгрузками в папку на ПК, так и по API с сервера, когда названия столбцов подписаны не на кириллице, а на латинице. Получится эдакая ультрагибкая машина под любую рекламную систему, куда скармливаешь исходные данные, а она тебе на выход отдаёт всё обработанное с кучей вариантов различных визуализаций и уже посчитанными столбцами, кастомными группировками, вычисляемыми динамически пересчитываемыми метриками, добавленным условным форматированием, созданными универсальными интерактивными фильтрами. Для создания веб-сервиса у меня пока не хватит мозгов, тестовую версию сделаю теми средствами, в которых я разбираюсь. На самых первых этапах подготовки совсем избежать ручных манипуляций не получится, ибо каждый бизнес уникален, и это будет скорее не этап обработки данных, а этап указания вводных. А дальше от этих шагов будет зависеть вообще всё. Цель — сделать максимально гибкий инструмент для юзера с любым опытом, чтобы этот юзер мог наворотить в файле любой фигни, какая ему только взбредёт в голову, но шаблон при этом всё равно продолжал корректно работать. Но для этого придётся параметризировать вообще всё, не будет ни единой строчки хардкода. Чем больше вынашиваю это всё в голове, тем больше убеждаюсь в том, что достаточно придумать алгоритм обработки некой одной штуки, а дальше навешивание новых слоёв функционала будет становиться с каждым разом всё проще и быстрее, а ценность продукта при этом будет возрастать в десятки раз, т.к. ничего подобного даже близко ни одна рекламная система в своих отчётах из коробки не поставляет, а на обработку и визуализацию всего этого у простого смертного специалиста уйдёт неделя работы минимум. Задача сделать так, чтобы эта неделя работы превратилась в пару кликов. Сколько такое решение может стоить? А сколько может стоить корпоративное решение для рекламных агентств и больших инхаус команд? А сколько оно может стоить вместе с обучением тому, как с этим всем работать на потоке? via @ppc_bigbrain
1 2911Loading...
04
То чувство, когда ржал над Хитро и карма настигла. Есть противоядие от Хитро?
1 2570Loading...
05
ловлю бесконечные кайфы от наблюдения за тем, как люди семьями наслаждаются жизнью, никакой суеты, никто никуда не торопится, не бежит. носятся в воде с собакой, плавают, играют в мяч и фрисби, катаются по аллее вдоль пляжа на велике, роликах, самокатах, бегают по береговой линии. детишки резвятся, копают свои ямы, строят свои песчаные замки. никто не дебоширит, не орёт матом, не ужирается водкой вхламину, не горланит песни на весь пляж, не крутит сальтухи в воду с плеч соседа. всё спокойно, мирно, уютно, никаких тревожных расстройств от соседних стран, никакого мусора вокруг — каждый убирает сам за собой, никаких портящих жизнь рекламных систем, чилюнькаем на расслабоне, загниваем по-тихоньку. via @ppc_bigbrain
1 3350Loading...
06
Личный менеджер в Яд сильно пресел на уши моему работодателю. Насоветовал кучу разной хуйни в начале мая, сказали что б до 15 все реализовал. Я упирался как мог. Там еще менеджер масла в огонь подливала «а Павел еще не все правки наши внес! Надо что бы вот все все все таргетинги задействовал». Хорошо блядь Сейчас собрал отчетик. С 16 числа все резко ебануло вверх, кроме лидов. Как итог Лидов у нас столько же, как и обычно, денег потрачено почти х2. Сделал срезы по тем корректировкам что я вносил ПО ПРИКАЗУ (интересы там добавить, сайты конкурентов, одну РК со стабильной ручки перевести на максимум конверсий за клики и прочая вроде бы мелкая поебень), и в комментарии к отчёту дал стату по этим срезам с цитатами из переписки с менеджером. UPD: пока писал, позвонила работодатель. У нас новый менеджер. Та послана нахуй
1 1800Loading...
07
👍 Тизер автогруппировки 35 тысяч фраз за 2 минуты в Power Query. Вчера в конце 4,5-часового стрима чёт нимношк поугарал на иронии. Разобрал на эфире итоги всего, к чему мы шли весь май, а также решение огромного количества прожитых болей за все 10 лет моей карьеры в маркетинге. 🔸 Где применяются обработанные данные: — В контекстной рекламе. — В SEO. — В таргетинге в соцсетях (ВК, FB, MT, TG). — В контентных стратегиях для ведения соцсетей. — В скриптах отдела продаж. 🔸 А также для приоритизации порядка: — Подготовки графических материалов для контекста и таргета. — Изготовления креативов для соцсетей и запуска таргета. — Расположения слайдов в рекламных постах с несколькими фотками. — Сценок в видеокреативах. — Разработки разделов и страниц сайта. — Сортировки на сайте: А) Категорий. Б) Кнопок навигационного меню. В) Фильтров и/или облака тегов над/под/рядом с галереей. 🔸 Темы, рассмотренные на стриме: — Демонстрация шаблона PQ. — Связи запросов. — Сценарии применения полученных данных. — Приоритизация сегментов. — 90% кумулятивного накопления частотности кластера. — Фильтрация в 1 клик любого кластера. — Порядок группировки семантики для рекламных кампаний. — Логика автоматического сопоставления групп ключей со списком URL. — Применение полученных данных в 10 различных сферах маркетинга и продаж. — Общение с заказчиком, имея на руках обработанные данные. via @ppc_bigbrain
1 5040Loading...
08
🦍 (3/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1 и часть 2. Пока шаблон привязан "хардкодом" к названиям и количеству столбцов в этом проекте, но и не было задачи заниматься параметризацией. До универсализации ещё далеко, но запрос PQ уже оптимизирован так, чтобы можно было переделать его под другой проект. На объёмах в 575 тысяч неуникальных фраз из 330 выгрузок планировщика Гугла, из которых уникальных — 70 тысяч фраз, и из них целевых с ненулевой частотностью — 35 тысяч фраз, PQ выполняет ~300 преобразований данных за 2 минуты. Зачем мне столько фраз? Да специально, чтобы на больших объёмах протестить. 2 дня назад, когда операций было в 5 раз меньше, но скорость запроса не была оптимизирована, он выполнялся за 10-15 минут. Теперь он в 5 раз сложнее и больше по объёму, но отрабатывает за 2 минуты. О — оптимизация. Для полного хлебушка с нулевым опытом в разработке очень достойный результат, ящщетаю. На последнем скрине — связанные запросы PQ. Эти связи — то, что под капотом у автоматизации сквозного обновления данных. Похимичу ещё с типами извлекаемых и сопоставляемых объектов (списками, записями, таблицами) и попробую ускорить запрос ещё в несколько раз. ———— Следующие шаги: 💓 Избавление от хардкода. 💓 Параметризация переменными. 💓 Замена синонимов на единое написание. 💓 Убрать неявные дубли иностранных фраз. 💓 Ускорение запроса. 💓 Лишние запросы заменить функциями. 💓 Уменьшить количество подключений в 10 раз. 💓 Гибкость и юзерфрендли. Турбокомбайн уже на подходе. Подробнее о нём: — Часть 1 — Часть 2 — Часть 3 — Часть 4 — Часть 5 За 3 дня с чистого листа собрал самое крутое, что я когда-либо делал за 10 лет карьеры. Дико рад, что наконец пересилил себя, сел и сделал. Энергии от полученных результатов хватит ещё на пару месяцев разработки. ———— Сегодня в 19:00 по МСК на стриме покажу, как работает этот комбайн, и расскажу, что с ним делать, чем он будет полезен и при запуске РК, и при аналитике, и при оптимизации рекламы. ———— via @ppc_bigbrain
1 4071Loading...
09
😮 (2/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1. При группировке в шаблоне PQ не учитываются и не являются группообразующими критериями: 🔸 Морфология (словоформы). 🔸 Порядок слов в строке. 🔸 Стоп-слова (служебные части речи). 🔸 Повторы слов в строке. 🔸 Повторы категорийных ярлыков в строке (дубли игнорируются). 🔸 Повторы ярлыков добавок в строке (аналогично). 🔸 Добавки можно использовать как критерии группировки опционально в высокочастотных кластерах, где много фраз с ними, но в средне- и низкочастотных кластерах любыми видами добавок можно пренебречь во избежание чрезмерного дробления лишних сущностей в аккаунте. 🔸 Информационные добавки и ранние этапы спроса, т.к. они исключены из целевой семантики. ———— Но это ещё цветочки. 7 вещей, которые срывают покровы: 1️⃣ Я одновременно и очистил от мусора, и сгруппировал 35 тысяч фраз. 2️⃣ Сделал я это автоматом, не перетащив ни единой фразы вручную. 3️⃣ Перегруппировка и/или фильтрация фраз по новым спискам условий обновляется за 2 минуты. 4️⃣ Можно указать свой порядок группировки. 5️⃣ Для этого достаточно внести изменения лишь в исходные библиотеки слов. 6️⃣ Исходная семантика вообще на английском языке, который я даже не читал, да и на русском — тоже. 7️⃣ Все последующие итерации аналитики за новые периоды будут начинаться с обновления этого запроса PQ, двух минут ожидания — и данные будут обработаны, очищены от мусора и сгруппированы. А дальше можно реализовывать любые самые безумные идеи для изучения данных и за всю историю, и за новый период, и сравнивать с предыдущим, и в динамике по датам и т.д. На скринах пример результата отработки запроса. ———— Во вторник 28 мая в 19:00 по Мск покажу на стриме, как это всё выглядит и работает, и что нужно для изготовления сего чуда нанотехнологий. ———— PS. Кому вальнуть рекламу по дверям? 😂 Я одновременно и на русском, и английском собрал за 5 дней, три из которых делал шаблон PQ. 🔻 Читать продолжение. via @ppc_bigbrain
1 1381Loading...
10
😎 (1/3) Автогруппировка 35.000 фраз за 2 минуты в Power Query. Доделал в PQ автоматический группировщик семантики по смыслу и намерениям, к которому постепенно шли на стримах весь май. Получилась бомбическая бомба пушка торпеда взрывчатка. Не прочитав при группировке ни единой фразы, настолько детально сгруппировать семантику за 2 минуты, вообще в неё не глядя — это ультрапобеда. В следующем посте прикрепил ряд скринов с результатами автоматической группировки. Группообразующими критериями, которые динамически пересчитываются сквозным образом через все этапы обработки данных в шаблоне, являются: 💓 Смысловые ярлыки слов. 💓 Группы ярлыков (ещё более укрупнённые смысловые группировки). 💓 Общая частотность всей группы ярлыков в 1-gram анализе. 💓 Общая частотность каждого отдельного ярлыка в 1-gram анализе. 💓 Общая частотность каждой категории независимо от порядка и морфологии её написания. 💓 Количество категорийных слов во фразе (например, категорийных слов во фразе — 1, горячих добавок — 2, геодобавка —1, а суммарно слов во фразе: 1+2+1 = 4). 💓 Комбинации категорийных смысловых ярлыков в каждой строке: а) Без учёта порядка слов, морфологии и стоп-слов. б) С учётом порядка слов, морфологии и стоп-слов. 💓 Комбинации ярлыков горячих и гео добавок в каждой строке. 💓 Для универсализации единой схемы нейминга всех кластеров извлечённые в отдельный столбец категорийные слова расположены в строке в том же самом порядке, в котором упорядочены по важности все кластеры лексики. Приведу пример. По убыванию общего объёма показов упорядочены следующие кластеры: 1. Предмет 2. Места установки 3. Конструкции движения 4. Материалы 5. Конструкции створчатости 6. Стиль 7. Разные наборы характеристик 8. Пожаропрочность 9. Конструкции строения 10. Цвета 11. Конструкция покрытий 12. Описание мест установки 13. Покрытия 14. Количественные характеристики 15. Характеристики размеров 16. Габариты 17. Единицы измерения В каждом кластере свой набор уникальных слов. В зависимости от того, какая общая частотность кластера, извлеченные категорийные слова расположены в строке в том же порядке, что и их кластеры. Отсюда автоматически рождается универсальная единая схема нейминга и категорийных кластеров, и групп объявлений для рекламного аккаунта: Название предмета рекламы — самая важная его характеристика — чуть менее важная — ещё менее важная — ещё менее важная — и т.д. 🔻 Всё не влезло. Читать дальше продолжение со скриншотами.
9321Loading...
11
⌨️ «Пробила планку в 250к/месяц. Ультанула доход почти в 2,5 раза». На скринах продолжение истории Алёны Склядневой — панпищщицы мечты, которая научила Power BI собственную маму. Поделилась своими результатами. ———— За май на канале 17,5 часов стримов о работе с иностранной семантикой и автоматизации её обработки, чистки и группировки в Power Query: 1️⃣ Как собрать семантику под Google Ads? 2️⃣ Работа на иностранном языке в Google Ads. 3️⃣ Автоматизация запуска Google Ads на иностранных языках. 4️⃣ Массовая обработка в Power Query зарубежной семантики для Google Ads. 5️⃣ 18 способов ускорения запросов в Power Query. 6️⃣ Как со 100 тысяч страниц конкурента спарсить нужные 320 урлов для сбора по ним семантики. 7️⃣ Автоматизация обработки поисковых запросов в Power Query. ———— На следующем стриме во вторник 28 мая в 19:00 по МСК разберу автоматизацию анализа новых поисковых запросов в Power Query: ✅ Получение и обработка фраз. ✅ Фильтрация фраз блэклистом. ✅ Фильтрация фраз вайтлистом. ✅ Неучитывание неявных дублей. ✅ Интерактивный 1-gram анализ запросов (частотный словарь слов с консолидацией показателей статистики по каждому слову). ✅ Фильтрация только новых слов в общем 1-gram анализе. ✅ Получение только новых поисковых запросов. ✅ Получение статистики по датам по каждому уникальному слову (в любой группировке дат). Применимо и для Google Ads, и для Яндекс Директ. Независимо от того, в какой рекламной системе вы работаете чаще, присоединяйтесь в любом случае — полезно будет каждому. ———— Весь июнь буду разбирать на воркшопах практику автоматизации десятков процессов, которые никто из вас не хочет делать руками, но все вы вынуждены это делать через не хочу, ведь других способов вам никто не показал. Мир движется к автоматизации, так почему бы и вам не научиться чему-то новому, что расширит и ваш кругозор, и высвободит вам время, и позволит быстрее находить проблемные зоны и точки роста в рекламе, и поможет вам продавать свои услуги дороже? ———— 👉 Велкам на стримы 🫡 ———— via @ppc_bigbrain
1 0180Loading...
12
😅 Автоматизация обработки новых поисковых запросов в Power Query. Сделал в Power Query автоматический быстрый шаблон для получения из Google Ads новых поисковых запросов, которые ранее не встречались в статистике аккаунта. Шаблон можно адаптировать и к точно такому же анализу поисковых запросов из Яндекс Директ в том числе. Разница будет лишь в названии столбцов и ещё паре незначительных моментов. Что выполняется автоматически за 150 шагов преобразований данных: 1️⃣ Выведение в интерактивную сводную таблицу с разными фильтрами и группировками списка только новых поисковых запросов только за новый диапазон дат. 2️⃣ Автоматическое удаление из получаемого списка фраз: ✅ Неявных дублей ранее несогласованных заказчиком фраз на всех предыдущих этапах согласований семантики с его стороны. ✅ Неявных дублей остановленных и активных ключевых фраз в аккаунте. ✅ Неявных дублей уже исключённых мусорных фраз. Теперь получение не входящих ни в один из выше перечисленных трёх списков новых поисковых запросов вместе с их статистикой, занимает меньше минуты. 3️⃣ Автоматическое назначение всем словам их смысловых ярлыков и групп ярлыков. 4️⃣ Автоматическая группировка семантики по смысловым ярлыкам слов и укрупнение группировки до групп ярлыков. 5️⃣ Порядок группировки учитывает важность каждого кластера (показатели статистики) и всех вложенных в него более мелких кластеров. 6️⃣ Возможность выбора, учитывать ли при группировке фраз все виды добавок (горячие, гео, информационные, ранние этапы спроса и т.д.) или пренебречь ими вовсе. 7️⃣ Автоматическая консолидация конверсий, кликов, показов, расходов и вычисление CPA, CR, CTR, CPC на любых уровнях группировки семантики: ✅ На уровне групп ярлыков. ✅ На уровне смысловых ярлыков категорийных слов. ✅ На уровне смысловых ярлыков добавок. ✅ На уровне поисковых запросов. 8️⃣ Консолидация показателей на уровне одной самой частотной словоформы каждой леммы (начальной словарной формы) запроса с учётом стоп-слов, остальные неявные дубли игнорируются. ———— Позже доработаю автоматизацию добавления новых фраз в соответствующие группы объявлений в аккаунте, чтобы запуск целевых ключей, собранных из новых поисковых запросов, занимал не весь рабочий день, а 5-10 минут. Спойлер: Я не программист, и владею языком M и DAX в Power Query на супербазовом уровне чайника. Сам ежедневно смотрю на ютубе обучающие ролики. Для оптимизации скорости отработки эти 150 шагов можно сократить раза в два, если убить на это ещё несколько дней. Но даже текущее состояние шаблона — это уже настоящий мегапрорыв в экономии времени, хоть я его и делал с нуля, тестировал, переделывал, оптимизировал скорость отработки и доводил до ума 13 часов подряд. А если ещё раз переделать всё с полного нуля, но с учётом нескольких крутейших шустрых функций, скорость отработки будет ещё выше. Рассмотрим сегодня на стриме темы: ⚡ Группировка семантики на английском языке в Power Query и сводных по модели данных ⚡ Покажу новый автоматический шаблон с результатами обработки и группировки новых поисковых запросов. Объяснять его создание с нуля не буду, сейчас нет цели разжёвывать все 150 операций преобразований данных, просто покажу вкратце, что он делает. Получилась пушка. К началу стрима по такой же логике оптимизировать скорость выполнения запроса по обработке ключей на английском языке уже не успеваю, там массив данных огромный. Покажу готовые результаты отработки сделанной неделю назад версии, которая пока не оптимизирована и медленная как улитка, но зато рабочая. Я не собираюсь сейчас продавать вам никакие файлы-шаблоны, а лишь покажу, как можно делать, для чего всё это делается, как это поможет в дальнейшем, и сколько времени вы можете экономить ежемесячно, в том числе все ваши сотрудники и коллеги. ———— Дата: сегодня, 23 мая. Время: через час в 19:00 по МСК. Место: турбочятик. Памписка: 10 000 ₽/мес. Запись: будет. ———— Сорямба за столь поздний анонс, только закончил всё это делать. До встречи. via @ppc_bigbrain
1 0140Loading...
13
🗯 ChatGPT: 18 шагов стратегии развития Ъндекс Шмирект Здесь прекрасно абсолютно всё. Даже немножечко захотелось плакать. Я ему даже не подсказывал ничего. —–—— Все действующие лица, названия, объекты и события являются вымышленными и фиктивными, ничего не имеющими с действительностью, все совпадения с реально существующими людьми и компаниями случайны, публикация создана исключительно в юмористических целях, не преследует цели кого-либо оскорбить или задеть, любая другая её трактовка будет неверной, всю ответственность за любой возможный причинённый ущерб от сгенерированного текста единолично несёт компания OpenAI, разработавшая ChatGPT. via @ppc_bigbrain
1 2140Loading...
🤔 12 шагов в таргете и смм для производств и b2b. снова зашёл разговор о разделении труда сммщиков и таргетологов. я эти позиции никогда не разделял, ибо занимался обоим одновременно, и в контексте коммерческих аккаунтов одно не может существовать без другого. до сих пор не понимаю, почему эти две вещи называют разными словами, если всё это сммщик. какой смысл сидеть делать контентную стратегию, писать тексты, делать графику для постов, делать сценарии для роликов, снимать, монтажить это всё, и в итоге не сделать из этого всего промо материалы и не запустить посты в рекламу? я этим занимался в одно лицо несколько лет и не умер. и не понимаю тех, кто их разделяет. Николай дальше спросил:
«а как ты будешь писать про какие-то там станки по фрезеровке, например?»
да элементарно. про это всё уже давно всё написано в спецификациях и каталогах производителей. я сам в металлообработке несколько лет проработал прямо на предприятии и в цехах, и как маркетолог. не нужно быть сверхразумом, чтобы у шарящих людей на предприятии спросить нужную инфу или спросить, где её взять. тем более в эру GPT, который пересказывает ранее написанное. станки не появляются каждый день новые. способы их применения не появляются каждый день новые. обрабатываемые материалы и виды операций не появляются каждый день новые. про всё это в интернете контента в изобилии. 1️⃣ берёте готовое, переписываете, профит. 2️⃣ берёте ссылки с сайтов конкурентов или тайтлы этих страниц, суёте в GPT, запрашиваете список тем, про которые ещё можно было бы рассказать, если совсем не у кого спросить, и не имеете ни малейшего представления об отрасли. 3️⃣ с этих же сайтов конкурентов берёте ссылки и собираете по ним:      🔆 семантику — ещё больше инсайтов, о чём можно рассказать о каждом сегменте.      🔆 метатеги страниц — точный список для создания: — новых страниц. — органических постов. — рекламных постов. 4️⃣ собираете семантику, делаете анализ униграмм и биграмм из которых состоят фразы, делаете контент в порядке убывания охвата каждого кластера. 5️⃣ группируете униграммы в похожие по смыслу кластеры. и делаете:      🔆 тематические страницы на сайте.      🔆 тематические подборки в органических и рекламных постов, ведущих на специально созданные для этого страницы на сайте.      🔆 тематические видео всех возможных ресайзов под все форматы размещения и плейсменты в соцсетях и контекстной рекламе.      🔆 сео на эти тематические страницы.      🔆 контекст на эти тематические страницы. 6️⃣ эти укрупнённые кластеры группируете в ещё большие группы кластеров, и делаете из них уже не подборки, а классификацию характеристик или любых других сегментов. 7️⃣ всё это делается в порядке убывания объёма общего охвата в лексике отрасли. 8️⃣ запрашиваете у отдела продаж обратную связь:      🔆 что и в каком порядке спрашивает входящий поток обращений, что для них является фактором принятия решения, а что - фактором отказа.      🔆 что и в каком порядке спрашивает отдел продаж у потенциальных клиентов, что яаляется квалификационными критериями, что является фактором отвала в неквал.лиды 9️⃣ запрашиваете у владельца инфу о продажах:      🔆 что приносит: — больше выручки — больше прибыли — с меньшим циклом сделки — чаще продаётся в месяц это то, что станет драйвером контентной стратегии и для органических, и для промо постов, и для контента сайта.      🔆 по каким сегментам продажи реже, но их нужно увеличить. под них создаётся отдельная контентная стратегия, как и с чем эти редкие сегменты объединить и сгруппировать в нечто большее и общее. 1️⃣0️⃣ сделать на сегменты с просадками упор:      🔆 на сайте.      🔆 в органических и промо постах.      🔆 в контекстной рекламе на поиске и в сетях.      🔆 в сео. 1️⃣1️⃣ добавляете соушал пруфы, вещественные доказательства, результаты выполненной работы, визуальную упаковку фотками и видео, видеоинтервью с исполнителями и клиентами. 1️⃣2️⃣ вся эта инфа собирается и упаковывается воедино в контентную стратегию минимум на полгода ежедневных публикаций. это базовый минимум. via @ppc_bigbrain
Show all...

👍 11😁 2 1🔥 1🤔 1
00:21
Video unavailableShow in Telegram
открывай агентство, говорили они будешь богат, говорили они счастье повалит, говорили они via @ppc_bigbrain
Show all...
5.52 MB
🤣 34
Photo unavailableShow in Telegram
Новые слои функционала и универсализация шаблона Power Query Нашёл и по несколько раз пересмотрел множество разных видосов по Power Query, которых, кажется, должно хватить, чтобы параметризировать в шаблоне всё, что должно динамически пересчитываться, не вынуждая пользователя делать какие-либо операции вручную. Неделями вынашиваю в голове план того, как и что будет преобразовываться, и куда какие данные будут передаваться на все последующие шаги, чтобы не наломать дров и потом не переделывать. Чёткий алгоритм действий уже сложился, осталось теперь только сесть и сделать. Всю эту и следующую неделю занимаюсь реализацией всего задуманного и спланированного. Зато потом будет очень легко и быстро всё это адаптировать с Google Ads под Яндекс Директ, и не просто под один тип отчёта, а под анализ и ключей, и поисковых запросов, получаемых как выгрузками в папку на ПК, так и по API с сервера, когда названия столбцов подписаны не на кириллице, а на латинице. Получится эдакая ультрагибкая машина под любую рекламную систему, куда скармливаешь исходные данные, а она тебе на выход отдаёт всё обработанное с кучей вариантов различных визуализаций и уже посчитанными столбцами, кастомными группировками, вычисляемыми динамически пересчитываемыми метриками, добавленным условным форматированием, созданными универсальными интерактивными фильтрами. Для создания веб-сервиса у меня пока не хватит мозгов, тестовую версию сделаю теми средствами, в которых я разбираюсь. На самых первых этапах подготовки совсем избежать ручных манипуляций не получится, ибо каждый бизнес уникален, и это будет скорее не этап обработки данных, а этап указания вводных. А дальше от этих шагов будет зависеть вообще всё. Цель — сделать максимально гибкий инструмент для юзера с любым опытом, чтобы этот юзер мог наворотить в файле любой фигни, какая ему только взбредёт в голову, но шаблон при этом всё равно продолжал корректно работать. Но для этого придётся параметризировать вообще всё, не будет ни единой строчки хардкода. Чем больше вынашиваю это всё в голове, тем больше убеждаюсь в том, что достаточно придумать алгоритм обработки некой одной штуки, а дальше навешивание новых слоёв функционала будет становиться с каждым разом всё проще и быстрее, а ценность продукта при этом будет возрастать в десятки раз, т.к. ничего подобного даже близко ни одна рекламная система в своих отчётах из коробки не поставляет, а на обработку и визуализацию всего этого у простого смертного специалиста уйдёт неделя работы минимум. Задача сделать так, чтобы эта неделя работы превратилась в пару кликов. Сколько такое решение может стоить? А сколько может стоить корпоративное решение для рекламных агентств и больших инхаус команд? А сколько оно может стоить вместе с обучением тому, как с этим всем работать на потоке? via @ppc_bigbrain
Show all...
🤝 6🔥 3💩 3👍 2😁 1
Photo unavailableShow in Telegram
То чувство, когда ржал над Хитро и карма настигла. Есть противоядие от Хитро?
Show all...
😁 8
ловлю бесконечные кайфы от наблюдения за тем, как люди семьями наслаждаются жизнью, никакой суеты, никто никуда не торопится, не бежит. носятся в воде с собакой, плавают, играют в мяч и фрисби, катаются по аллее вдоль пляжа на велике, роликах, самокатах, бегают по береговой линии. детишки резвятся, копают свои ямы, строят свои песчаные замки. никто не дебоширит, не орёт матом, не ужирается водкой вхламину, не горланит песни на весь пляж, не крутит сальтухи в воду с плеч соседа. всё спокойно, мирно, уютно, никаких тревожных расстройств от соседних стран, никакого мусора вокруг — каждый убирает сам за собой, никаких портящих жизнь рекламных систем, чилюнькаем на расслабоне, загниваем по-тихоньку. via @ppc_bigbrain
Show all...
💩 2 1
Личный менеджер в Яд сильно пресел на уши моему работодателю. Насоветовал кучу разной хуйни в начале мая, сказали что б до 15 все реализовал. Я упирался как мог. Там еще менеджер масла в огонь подливала «а Павел еще не все правки наши внес! Надо что бы вот все все все таргетинги задействовал». Хорошо блядь Сейчас собрал отчетик. С 16 числа все резко ебануло вверх, кроме лидов. Как итог Лидов у нас столько же, как и обычно, денег потрачено почти х2. Сделал срезы по тем корректировкам что я вносил ПО ПРИКАЗУ (интересы там добавить, сайты конкурентов, одну РК со стабильной ручки перевести на максимум конверсий за клики и прочая вроде бы мелкая поебень), и в комментарии к отчёту дал стату по этим срезам с цитатами из переписки с менеджером. UPD: пока писал, позвонила работодатель. У нас новый менеджер. Та послана нахуй
Show all...
04:28
Video unavailableShow in Telegram
👍 Тизер автогруппировки 35 тысяч фраз за 2 минуты в Power Query. Вчера в конце 4,5-часового стрима чёт нимношк поугарал на иронии. Разобрал на эфире итоги всего, к чему мы шли весь май, а также решение огромного количества прожитых болей за все 10 лет моей карьеры в маркетинге. 🔸 Где применяются обработанные данные: — В контекстной рекламе. — В SEO. — В таргетинге в соцсетях (ВК, FB, MT, TG). — В контентных стратегиях для ведения соцсетей. — В скриптах отдела продаж. 🔸 А также для приоритизации порядка: — Подготовки графических материалов для контекста и таргета. — Изготовления креативов для соцсетей и запуска таргета. — Расположения слайдов в рекламных постах с несколькими фотками. — Сценок в видеокреативах. — Разработки разделов и страниц сайта. — Сортировки на сайте: А) Категорий. Б) Кнопок навигационного меню. В) Фильтров и/или облака тегов над/под/рядом с галереей. 🔸 Темы, рассмотренные на стриме: — Демонстрация шаблона PQ. — Связи запросов. — Сценарии применения полученных данных. — Приоритизация сегментов. — 90% кумулятивного накопления частотности кластера. — Фильтрация в 1 клик любого кластера. — Порядок группировки семантики для рекламных кампаний. — Логика автоматического сопоставления групп ключей со списком URL. — Применение полученных данных в 10 различных сферах маркетинга и продаж. — Общение с заказчиком, имея на руках обработанные данные. via @ppc_bigbrain
Show all...
Войсчат_№35_28_05_24_Демонстрация_шаблона_PQ_Тизер.mp4133.76 MB
🦍 (3/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1 и часть 2. Пока шаблон привязан "хардкодом" к названиям и количеству столбцов в этом проекте, но и не было задачи заниматься параметризацией. До универсализации ещё далеко, но запрос PQ уже оптимизирован так, чтобы можно было переделать его под другой проект. На объёмах в 575 тысяч неуникальных фраз из 330 выгрузок планировщика Гугла, из которых уникальных — 70 тысяч фраз, и из них целевых с ненулевой частотностью — 35 тысяч фраз, PQ выполняет ~300 преобразований данных за 2 минуты. Зачем мне столько фраз? Да специально, чтобы на больших объёмах протестить. 2 дня назад, когда операций было в 5 раз меньше, но скорость запроса не была оптимизирована, он выполнялся за 10-15 минут. Теперь он в 5 раз сложнее и больше по объёму, но отрабатывает за 2 минуты. О — оптимизация. Для полного хлебушка с нулевым опытом в разработке очень достойный результат, ящщетаю.
На последнем скрине — связанные запросы PQ. Эти связи — то, что под капотом у автоматизации сквозного обновления данных.
Похимичу ещё с типами извлекаемых и сопоставляемых объектов (списками, записями, таблицами) и попробую ускорить запрос ещё в несколько раз. ———— Следующие шаги: 💓 Избавление от хардкода. 💓 Параметризация переменными. 💓 Замена синонимов на единое написание. 💓 Убрать неявные дубли иностранных фраз. 💓 Ускорение запроса. 💓 Лишние запросы заменить функциями. 💓 Уменьшить количество подключений в 10 раз. 💓 Гибкость и юзерфрендли. Турбокомбайн уже на подходе. Подробнее о нём: — Часть 1Часть 2Часть 3Часть 4Часть 5 За 3 дня с чистого листа собрал самое крутое, что я когда-либо делал за 10 лет карьеры. Дико рад, что наконец пересилил себя, сел и сделал. Энергии от полученных результатов хватит ещё на пару месяцев разработки. ———— Сегодня в 19:00 по МСК на стриме покажу, как работает этот комбайн, и расскажу, что с ним делать, чем он будет полезен и при запуске РК, и при аналитике, и при оптимизации рекламы. ———— via @ppc_bigbrain
Show all...
👍 1
😮 (2/3) Автогруппировка 35 тысяч фраз за 2 минуты в Power Query. 🔺 Прочитайте сначала часть 1. При группировке в шаблоне PQ не учитываются и не являются группообразующими критериями: 🔸 Морфология (словоформы). 🔸 Порядок слов в строке. 🔸 Стоп-слова (служебные части речи). 🔸 Повторы слов в строке. 🔸 Повторы категорийных ярлыков в строке (дубли игнорируются). 🔸 Повторы ярлыков добавок в строке (аналогично). 🔸 Добавки можно использовать как критерии группировки опционально в высокочастотных кластерах, где много фраз с ними, но в средне- и низкочастотных кластерах любыми видами добавок можно пренебречь во избежание чрезмерного дробления лишних сущностей в аккаунте. 🔸 Информационные добавки и ранние этапы спроса, т.к. они исключены из целевой семантики. ———— Но это ещё цветочки. 7 вещей, которые срывают покровы: 1️⃣ Я одновременно и очистил от мусора, и сгруппировал 35 тысяч фраз. 2️⃣ Сделал я это автоматом, не перетащив ни единой фразы вручную. 3️⃣ Перегруппировка и/или фильтрация фраз по новым спискам условий обновляется за 2 минуты. 4️⃣ Можно указать свой порядок группировки. 5️⃣ Для этого достаточно внести изменения лишь в исходные библиотеки слов. 6️⃣ Исходная семантика вообще на английском языке, который я даже не читал, да и на русском — тоже. 7️⃣ Все последующие итерации аналитики за новые периоды будут начинаться с обновления этого запроса PQ, двух минут ожидания — и данные будут обработаны, очищены от мусора и сгруппированы. А дальше можно реализовывать любые самые безумные идеи для изучения данных и за всю историю, и за новый период, и сравнивать с предыдущим, и в динамике по датам и т.д. На скринах пример результата отработки запроса. ———— Во вторник 28 мая в 19:00 по Мск покажу на стриме, как это всё выглядит и работает, и что нужно для изготовления сего чуда нанотехнологий. ———— PS. Кому вальнуть рекламу по дверям? 😂 Я одновременно и на русском, и английском собрал за 5 дней, три из которых делал шаблон PQ. 🔻 Читать продолжение. via @ppc_bigbrain
Show all...
😎 (1/3) Автогруппировка 35.000 фраз за 2 минуты в Power Query. Доделал в PQ автоматический группировщик семантики по смыслу и намерениям, к которому постепенно шли на стримах весь май. Получилась бомбическая бомба пушка торпеда взрывчатка. Не прочитав при группировке ни единой фразы, настолько детально сгруппировать семантику за 2 минуты, вообще в неё не глядя — это ультрапобеда. В следующем посте прикрепил ряд скринов с результатами автоматической группировки. Группообразующими критериями, которые динамически пересчитываются сквозным образом через все этапы обработки данных в шаблоне, являются: 💓 Смысловые ярлыки слов. 💓 Группы ярлыков (ещё более укрупнённые смысловые группировки). 💓 Общая частотность всей группы ярлыков в 1-gram анализе. 💓 Общая частотность каждого отдельного ярлыка в 1-gram анализе. 💓 Общая частотность каждой категории независимо от порядка и морфологии её написания. 💓 Количество категорийных слов во фразе (например, категорийных слов во фразе — 1, горячих добавок — 2, геодобавка —1, а суммарно слов во фразе: 1+2+1 = 4). 💓 Комбинации категорийных смысловых ярлыков в каждой строке: а) Без учёта порядка слов, морфологии и стоп-слов. б) С учётом порядка слов, морфологии и стоп-слов. 💓 Комбинации ярлыков горячих и гео добавок в каждой строке. 💓 Для универсализации единой схемы нейминга всех кластеров извлечённые в отдельный столбец категорийные слова расположены в строке в том же самом порядке, в котором упорядочены по важности все кластеры лексики. Приведу пример. По убыванию общего объёма показов упорядочены следующие кластеры: 1. Предмет 2. Места установки 3. Конструкции движения 4. Материалы 5. Конструкции створчатости 6. Стиль 7. Разные наборы характеристик 8. Пожаропрочность 9. Конструкции строения 10. Цвета 11. Конструкция покрытий 12. Описание мест установки 13. Покрытия 14. Количественные характеристики 15. Характеристики размеров 16. Габариты 17. Единицы измерения В каждом кластере свой набор уникальных слов. В зависимости от того, какая общая частотность кластера, извлеченные категорийные слова расположены в строке в том же порядке, что и их кластеры. Отсюда автоматически рождается универсальная единая схема нейминга и категорийных кластеров, и групп объявлений для рекламного аккаунта: Название предмета рекламы — самая важная его характеристика — чуть менее важная — ещё менее важная — ещё менее важная — и т.д. 🔻 Всё не влезло. Читать дальше продолжение со скриншотами.
Show all...

👍 2