- Прихована загроза: сторінки, які втратили пошуковий трафік
- Як знайти url, перестали давати відвідувачів з пошуку
- 1. Вивантажуємо сторінки входу за останній місяць
- 2. У тому ж самому звіті міняємо період на більш довгий і знову вивантажуємо.
- 3. Порівнюємо списки між собою
- Як знайти причину, по якій пропав трафік і повернути його
- Зміна адреси сторінки або технічна помилка
- заборона індексації
- Неактуальне або неякісний контент
- Відсутність в індексі
- Замість висновку. Ще раз, навіщо потрібні всі ці муки?
Траплялося вам повністю втрачати трафік з Яндекса або Google на проекті, якому було віддано багато поту і крові? Ще немає? Тоді ви вчасно відкрили цю статтю. Дочитайте до кінця і намотайте на вус - можливо, вона збереже вам тонну-другу нервових клітин.
Відразу заспокою: хоча сильна просадка відвідуваності вкрай неприємна в емоційному і фінансовому плані, з нею майже завжди можна боротися. Невиліковних випадків мало. На худий кінець можна врахувати помилки і стартувати з новим доменом. Більш того, сильне падіння трафіку зазвичай це пов'язано з причинами, які лежать на поверхні. Їх може знайти практично будь-який SEO-фахівець, на цю тему багато статей і доповідей.
Прихована загроза: сторінки, які втратили пошуковий трафік
Тому сьогодні ми поговоримо про інше. Чи не про нагальне лікування, а про профілактику. Будь-який проект може втрачати відвідуваність на мікро-рівні - перестають приносити трафік окремі сторінки. Загальна відвідуваність при цьому може стабільно зростати за рахунок інших документів.
Більшість скільки-небудь великих сайтів (від пари сотень url) поступово накопичують проблемні сторінки. Їх обов'язково потрібно знайти і розібратися в ситуації. Чому «обов'язково»? Все просто:
- по-перше, повернути трафік зазвичай куди легше, ніж завоювати новий;
- по-друге, дрібні неприємності з окремими сторінками часто свідчать про більш серйозні загрози сайту. А значить - допомагають їх діагностувати на ранній стадії і уникати великих втрат;
- по-третє, це дозволяє тримати руку на пульсі ніші і приймати більш ефективні рішення щодо розвитку сайту.
Взагалі кажучи, відстеження проблемних сторінок різних типів - це рутинна завдання SEO-фахівця. Вона входить в джентльменський набір обов'язкових для моніторингу параметрів.
Як знайти url, перестали давати відвідувачів з пошуку
Коли я кілька років тому серйозно зайнявся консультуванням з SEO, мене сильно здивувала відсутність на ринку інструментів, які б автоматизували завдання. Довелося написати власний скрипт, який працював зі статистикою Метрики. Він став першим з тих, що потім лягли в основу сервісу https://bez-bubna.com/ . Якщо ви користуєтеся сервісом, то він зробить все за вас - другий розділ аудиту називається «Втрачений трафік», там є списки сторінок, які втратили трафік з Яндекса і Google. Просто завантажуєте їх і переходите до аналізу проблем (див. Нижче про те, як знайти і усунути причини випадіння).
Зрозуміло, в створенні цих списків немає нічого складного (сервіс не даремно називається "без бубна»). Ви можете зробити їх і вручну, хоча це і злегка клопітно. Ось інструкція.
1. Вивантажуємо сторінки входу за останній місяць
Звіт «Сторінки входу» - стандартний для Яндекс.Метрики:
Не забуваємо вказати, що нам потрібен трафік тільки з однієї пошукової системи:
Перемкнемося на на лінійний список, щоб в вивантаження потрапили тільки потрібні дані:
Тепер можна вивантажувати в Excel (кнопка вгорі праворуч - «дані таблиці»).
2. У тому ж самому звіті міняємо період на більш довгий і знову вивантажуємо.
Наприклад, беремо 12 місяців. Тепер нам потрібно відфільтрувати сторінки, які мають занадто маленький трафік. Адже якщо відвідуваність зміниться з 2 чоловік в рік до 0 на місяць - це ще мало про що говорить. А ось якщо на конкретний url c Яндекса прийшло 200 чоловік за рік і 0 за місяць - значить, щось не так.
Залежно від розміру сайту мінімальний річний трафік, який слід взяти до уваги, буде різним. Для невеликого проекту можна використовувати 25 візитів, для середнього - 50. Вказуємо цей ліміт в настройках:
3. Порівнюємо списки між собою
Нам потрібно знайти ті, що є в списку «за рік» та відсутні в списку «за місяць».
Ви можете зробити це за допомогою Excel (Google в допомогу). Особисто мені в ньому працювати не комфортно, я не вважаю Excel універсальним робочим інструментом . Тому зробив спеціальний онлайн-сервіс, який вирішує завдання в один клік: https://bez-bubna.com/free/compare.php (Безкоштовно, без реєстрації). Просто копіюєте один список в праве поле, другий - в ліве і натискаєте кнопку «Знайти відмінність».
Тепер повторимо процедуру для другої пошукової системи. Отже, у нас на руках два списки url - втратили відвідувачів з Google і з Яндекса. Що робимо далі?
Як знайти причину, по якій пропав трафік і повернути його
Зрозуміло, причин втрати трафіку може бути дуже багато. Не всі свідчать про проблеми і вимагають дій. Розглянемо найпоширеніші варіанти. Ми будемо проводити аналіз в такому порядку, щоб спочатку робити найпростішу роботу (а раптом складна і не буде потрібно?).
Отже, гіпотези:
Зміна адреси сторінки або технічна помилка
Для початку перевіримо відповідь сервера, який повертає сторінка. Це можна зробити, наприклад в Sreaming Frog (можливостей безкоштовної версії досить):
Також ви можете використовувати пробну версію парсеру від Visual SEO Studio, про яку я писав в пості про безкоштовні програми для аналізу сайту .
Які коди ми можемо отримати? У більшості випадків це буде:
- 200 (сторінка доступна) - потрібно працювати далі і розглядати інші гіпотези.
- 301/302 (переадресація) - ймовірно, адреса сторінки був навмисно змінений. Варто перевірити, чи все в порядку у сторінки, яка є метою редиректу.
- 404 (Сторінка наразі не має) - дуже частий варіант. Раз сторінка колись приносила непоганий трафік, видалення, швидше за все, сталося помилково. Сторінки з 404 не можуть довго перебувати в індексі пошукових систем і приносити трафік. Варто подбати про її відновлення.
- 500/504 (помилка сервера) - явна ознака технічних проблем. Необхідно розібратися в причинах і подбати, щоб документ віддавав код 200 і мав коректний контент.
заборона індексації
Ще одна поширена причина - випадковий заборона індексації сторінок. Повертаємося до програми, яку ми дивилися відповідь сервера і шукаємо в таблиці результатів наступне:
- результати перевірки robots.txt (в Screaming Frog - поле «Status»)
- результати перевірки meta robots
- link canonical
Якщо сторінка:
- заблокована в robots.txt
- або має мета-тег noindex
- або має відрізняється від її адреси canonical,
то проблема, швидше за все, в тому, що настройки сайту перешкоджають індексації документа. Необхідно розібратися, чи був заборона зроблений навмисно або випадково. Якщо заборона випадковий - то потрібно змінити налаштування так, щоб пошукові системи могли додавати проблемний url в пошук.
Неактуальне або неякісний контент
Якщо ви до цих пір не визначили причину, по якій сторінка перестала давати відвідувачів, то приготуйтеся до трохи складнішого аналізу. Потрібно зрозуміти, чи може контент, наявний на сторінці, взагалі приносити відвідувачів. Дати однозначну інструкцію тут неможливо: дуже багато залежить від ніші і специфіки сайту.
Ось кілька загальних напрямків для аналізу:
- Чи містить сторінка контент, який відповідає будь-якої користувальницької потреби (дізнатися нові відомості, замовити товар або послугу і т.д.)?
- Чи достатній обсяг контенту, щоб адекватно відповісти користувачеві з пошуку?
- Чи не є сторінка дублем іншої сторінки (не обов'язково повним)?
- Чи дотримані базові технічні вимоги до оптимізації (текстовий контент виводиться безпосередньо в код html-сторінки, вона має коректні title і h1)?
Нарешті, сторінка сама по собі може бути в повному порядку, але містити контент, який в даний момент не шукають. Скажімо, вона присвячена новорічним салатів (їх шукають раз на рік) або старої новини (колись вона зібрала подієвий трафік, а зараз просто застаріла). Зазвичай з такими сторінками немає сенсу щось робити. З іншого боку, якщо реально якісний контент просто припадає пилом в архіві, можна спробувати підібрати під нього більш актуальні ключові слова і трохи змістити на них акцент.
Наприклад, у нас є новина із заголовком «Аномальна активність кліщів у 2012 році», а всередині - коментар експерта, як захистити себе від укусу. Ставимо в заголовок «Профілактика укусу кліщами: як захистити себе під час спалаху енцефаліту», домагаємося щоб поради було максимально зручно розташовані на сторінці - і стабільно отримуємо трафік з інформаційного ключевику.
Відсутність в індексі
Навіть коли технічні параметри не перешкоджають індексації та сторінка містить якісний контент, це не гарантує її присутність в індексі. Тому останнім етапом - перевіряємо наявність сторінки в пошуку:
- в Google - через оператор info:
- в Яндексі - через оператор url:
(Після оператора - перевіряється url).
Якщо сторінка не в індексі - добиваємося, щоб робот міг її легко знайти:
Зрозуміло, можуть мати місце і більш екзотичні проблеми, які не вписуються в цю схему. Якщо ви зіткнулися з такою, можете написати мені , Я спробую розібратися в ситуації.
Замість висновку. Ще раз, навіщо потрібні всі ці муки?
Як бачите, завдання, особливо якщо виконувати її повністю вручну, без використання https://bez-bubna.com/ вимагає досить багато зусиль. Хоча більшість операцій прості, часу на детальний аналіз йде порядно. Чи варта гра свічок?
Однозначно варто!
Думаєте даремно на початку цієї статті фото акули? Аналіз проблемних сторінок - це один із способів виловити серйозні проблеми з технічною частиною. За наводкою інструменту були виявлені, наприклад:
- закриття в robots.txt розділу сайту на 500 сторінок;
- неправильна зміна структури сайту (замість редиректу за старими адресами віддавався 404, всі накопичені фактори були витрачені даремно) і як наслідок серйозна просадка позицій;
- неробочий код (у ряду url замість контенту на сторінку вивалювалися технічні повідомлення про помилку php).
Втім, дрібна рибка - повернення трафіку на окремі сторінки - теж прийнятна мета, з хорошим співвідношенням витрати / результат.
Вдалої риболовлі, успіхів вашим сайтам!
Ще раз, навіщо потрібні всі ці муки?Траплялося вам повністю втрачати трафік з Яндекса або Google на проекті, якому було віддано багато поту і крові?
Ще немає?
Чому «обов'язково»?
Що робимо далі?
А раптом складна і не буде потрібно?
Які коди ми можемо отримати?
Чи достатній обсяг контенту, щоб адекватно відповісти користувачеві з пошуку?
Чи не є сторінка дублем іншої сторінки (не обов'язково повним)?
Чи дотримані базові технічні вимоги до оптимізації (текстовий контент виводиться безпосередньо в код html-сторінки, вона має коректні title і h1)?