Создав правильное дерево вложенности ссылок на сайте можно получить хороший бонус к выходу в ТОП даже по самым высокочастотным запросам в будущем.
В этой статье я расскажу о том как сам создаю максимально полную структуру для нулевого сайта и как можно оптимизировать уже имеющуюся.
Для этого буду использовать два самых мощных метода:
Итак, начинаем мы с получения конкурентов по семантическому ядру, которое мы подготовили по ссылке выше в программе Key Collector.
Смысл такой, что мы должны собрать наиболее полную структуру, опираясь на всех главных конкурентов, а потом отсортировать все собранные разделы с подразделами по частотности ключевых слов.
Чем выше точная «!» частотность ключевого слова, учитывая порядок слов, входящих в название раздела, тем выше этот раздел должен стоять на своём уровне вложенности.
Этот момент очень легко посмотреть на сайтах с уже готовой структурой, если зайти в Яндекс.Метрику и перейти там в раздел Карты => Карты ссылок.
Выявляем список наших конкурентов по семантическому ядру.
Почему я выделил слово «наших»? А потому что конкуренты по запросу в поиске могут быть сайты другого типа, например для коммерческого сайта — конкурентом в выдачи может быть информационный сайт или для обычного небольшого магазина — конкурентом в ТОПе может быть мощный агрегатор.
В Key Collector конкурентов можно снять, нажав на пункт SERP => Поиск конкурентов
После того как мы выявили наш список самых главных конкурентов, выбираем среди него сайт с самой полной структурой, которую мы и возьмём за основу.
Открываем программу XMind или её аналоги и полностью переносим структуру этого конкурента в наш новый документ.
Чтобы этот процесс отчасти автоматизировать нам нужно создать фильтр на XPath хлебных крошек в программе Screaming Frog SEO Spider и просканировать ею сайт.
Для этого в Screaming Frog SEO Spider заходим в меню Configuration => Custom => Extractions, выбираем там XPath, задаём путь XPath, который скопируем из консоли разработчика, как на изображении, а так же выставляем значение Extract Text в конце строки.
Жмём Ok, вбиваем в строку сайт и жмём уже Start, процесс парсинга запущен.
Результаты выгружаем из категории Custom, выбрав сортировку по Extraction, как показано на скрине.
Дальше работаем в программе Excel и notepad++.
Открыв в Excel наш отчёт, удаляем всю первую строку, где написано: «Custom — Extraction». Далее кликнув в любом месте таблицы выделяем её всю при помощи сочетания клавиш Ctrl-A и переходим в сортировку, как на изображениях ниже.
После чего мы можем легко перенести всю структуру из excel в программу XMind, простым копированием.
А чтобы избежать дублей, нам потребуется notepad++, в котором можно удалить их из меню, как показано на скрине.
После того как закончим с одним сайтом, повторяем данную операцию с другим, но не создавая новую структуру, а дополнив уже имеющуюся недостающими пунктами.
Таким образом мы можем создать в несколько итераций с разными сайтами самую полную структуру.
Но это ещё не максимально полная структура, ведь мы можем её увеличить использовав кластеризацию нашего семантического ядра.
Для этого возвращаемся в нашу программу Key Collector в раздел Данные => Анализ групп и находим те кластеры, для которых мы можем дополнить разделы нашей структуры сайта, увеличивая нашу карту XMind.
После всех этих операций мы получаем действительно полную структуру, которая если её перенести на сайт и заполнить уникальной информацией, будет конкурировать в ТОПе по всем запросам нашего ядра.
Для клиента предлагаю экспортировать её в Excel, а для себя можно картинкой, чтобы нагляднее было.
Так же смотрите видеоинструкцию по созданию правильной структуры сайта на моём канале.
Чтобы быстро выстроить все подкатегории по их будущей популярности можно закинуть наш список пунктов подменю в Key Collector и снять точную частотность «!», после чего просто отсортировать по ней.