система онлайн-бронирования
г. Донецк, Украина, ул. Артёма, 87
+38 (062) 332 33 32, 332-27-71
ЗАБРОНИРОВАТЬ
НОМЕР

Статьи

Як провести Технічний SEO Аудит самостійно?

  1. # 1 - Використовувані інструменти:
  2. # 2 - Google Search Console
  3. 2.2 - Міжнародний таргетинг
  4. 2.3 - Мобільна адаптивність
  5. 2.4 - Статус індексування
  6. 2.5 - Ключові слова
  7. 2.6 - Помилки сканування
  8. 2.7 - Статистика сканування
  9. 2.8 - Sitemap
  10. 2.9 - Швидкості сайту
  11. 2.10 - Robots.txt
  12. # 3 - Google Search Console vs Serpstat
  13. # 4 - Serpstat
  14. 4.1 - Title, Description і тег H1
  15. 4.2 - Дублювання HTTPS / HTTP
  16. 4.3 - Коди відповідей сервера
  17. 4.4 - Дублювання контенту
  18. 4.5 - Внутрішня перелінковка
  19. # 5 - Перевірка на сайті
  20. 5.2 - Код сторінки
  21. 5.3 - Структура URL-адрес

Проведення повного технічного SEO аудиту - складний, але обов'язковий процес, адже займатися промо сайту не зробивши технічну оптимізацію, схоже на будівництво цегельного будинку, без надійного фундаменту.

Давайте розберемося, що і як перевірити, щоб ідентифікувати головні помилки на сайті, не пропустивши нічого. Даний пост не покрокове керівництво по кожному аспекту технічного аудиту, вам знадобляться базові знання в SEO, оскільки ми пройдемося лише по базовим пунктам, які потрібно перевірити і як це можна зробити.

Мета цього посту, дати контрольний список пунктів, щоб бути спокійним, що нічого не пропустив:
# 1 - Використовувані інструменти
# 2 - Google Search Console

2.1 - Помилки структурованих даних (мікророзмітки)
2.2 - Міжнародний таргетинг
2.3 - Мобільна адаптивність
2.4 - Статус індексування
2.5 - Ключові слова
2.6 - Помилки сканування
2.7 - Статистика сканування
2.8 - Sitemap
2.9 - Швидкості сайту
2.10 - Robots.txt

# 3 - Google Search Console vs Serpstat
# 4 - Serpstat

4.1 - Title, Description і тег H1
4.2 - Дублювання HTTPS / HTTP
4.3 - Коди відповідей сервера
4.5 - Дублювання контенту
4.6 - Внутрішня перелінковка

# 5 - Перевірка на сайті

5.1 - Rel = Canonical
5.2 - Код сторінки
5.3 - Структура URL-адрес

# 1 - Використовувані інструменти:

    1. Google Search Console
    2. Structured Data Testing Tool
    3. Mobile Friendly Test
    4. PageSpeed ​​Insights
    5. Serpstat
    6. WebPageTest

# 2 - Google Search Console

2.1 - Помилки структурованих даних (мікророзмітки)

Структуровані дані часто називаються «мікророзмітки», вона допомагає поліпшити відображення сторінок в результатах пошуку, сформувати відповідні розширені сніппети оголошень, а також допомагає пошуковій системі краще оцінити контент.

Співпраця між Google, Bing, Yandex і Yahoo !, з питань уніфікації мікророзмітки, призвело до її практично повної уніфікації під основні пошукові системи, за винятком не великих відмінностей. А судячи з останніх новин з Google, структуровані дані впливають на позиції в пошуку .

Google Search Console надає докладний звіт по всіх помилок в мікророзмітки. Звіт знаходиться в "Вид в пошуку - Структуровані дані", який відображає всю мікророзмітки з помилками і точно вказує, в чому саме помилка. Також можна перевірити окрему сторінку в інструменті Structured Data Testing Tool , Щоб більш отримати детальний аналіз, по окремій сторінці.

2.2 - Міжнародний таргетинг

Якщо сайт просувається не на одну країну, то необхідно, щоб Google про це дізнався. Основний спосіб даної реалізації, це впровадження тега «hreflang», щоб вказати Google, яка мова використовується на сторінці і для якого регіону вона призначена. Даний атрибут допомагає пошуковій системі зрозуміти мовну і географічну орієнтацію сторінок сайту. В результаті потрібні сторінки показуються користувачам на їх мові і для їхньої країни в результатах пошуку Google.

75% багатомовних сайтів мають помилки в теги «hreflang»

Проте, часто можна зіткнуться з помилками при реалізації атрибуту hreflang на мультирегіональних або багатомовних сайтах. Без коректної реалізації атрибуту hreflang на сайті, Google може неправильно визначити які сторінки відображати для конкретної країни.

Коректність настройки даного атрибута, перевіряємо в розділі «Пошуковий трафік - Орієнтування по країнах і мов».

Також прочитайте - Основні нюанси використання атрибута hreflang

2.3 - Мобільна адаптивність

Важливість зручності на мобільних пристроях, особливо актуально на протязі останніх років, а останнім часом стала критично важливим аспектом функціонування сайту.

Search Console пропонує кілька корисних інструментів, які показують основні проблеми. В першу чергу перевірте звіт - «Зручність перегляду на мобільних пристроях», в розділі «Пошуковий трафік», даний звіт покаже основні помилки і на яких сторінках Google їх виявив.

В першу чергу перевірте звіт - «Зручність перегляду на мобільних пристроях», в розділі «Пошуковий трафік», даний звіт покаже основні помилки і на яких сторінках Google їх виявив

Ще один інструмент від Google, це Mobile Friendly Test , Він ідентифікує проблеми в експлуатації сайту на мобільних. Врахуйте, що Mobile Friendly Test аналізує не сайт цілком, а тільки конкретний URL-адресу, і показує, як саме Googlebot обробив конкретну сторінку.

Врахуйте, що Mobile Friendly Test аналізує не сайт цілком, а тільки конкретний URL-адресу, і показує, як саме Googlebot обробив конкретну сторінку

2.4 - Статус індексування

Використовуйте розширені дані, щоб оцінити, скільки сторінок на сайті проіндексовано, скільки блоковано роботами і скільки видалено.

Розуміння загального кількість проіндексованих сторінок в Google, необхідно, що б порівнянні із загальною кількістю сторінок на сайті, які можна подивитися у файлі sitemap.xml.

2.5 - Ключові слова

Ви можете здивуватися, навіщо перевіряти ключові слова в технічному SEO аудит? Але цей пункт стосується тільки безпеки сайту.

Якщо ви були зламані, в звіті "Аналіз пошукових запитів" ви побачите дивні запити, за якими показується ваш сайт. У ньому необхідно перевірити чи немає серед них спамних запитів.

Якщо ви думаєте, що якщо ваш сайт коли зламають ви відразу все зрозумієте, це не так. Ось пошук по найпопулярнішому запитом "buy viagra", і як ви думаєте "Сумський аграрний університет" і "Бетон від Ковальської" продають віагру на своїх сайтах?

Тому завжди краще перестрахуватися, а не чекати листи про накладення ручних санкцій.

2.6 - Помилки сканування

Google Search Console відображає вкрай корисну інформацію про всіх помилках на сайті, які виявив Google. У цьому звіті ви можете легко визначити, що пошуковик не може завантажити конкретну сторінку, або, що окрема сторінка віддає помилку або закрита в robots.txt.

Звіт розділений на окремі помилки виявлені декстопним (пошуковим павуком, який сканує сайт як користувач зі стаціонарного комп'ютера) і мобільним павуком. Звіт показує всі URL сторінки, які віддають відповіді відмінні від 200. Це один з найбільш важливих звітів, який показує, які помилки сканування побачив Google.

2.7 - Статистика сканування

Google показує статистику Googlebot за останні 90 днів по обходу сайту, цей розділ часто пропускають при проведенні технічних аудитів, але він важливий, так як це один з перших способів визначити, чи існують проблеми з індексуванням.

Перегляньте звіт «сторінки, проскановані за день»; де необхідно переконатися, що немає ніяких значних коливань. Якщо потрібно більш детально ознайомитися зі статистикою обходу сайту пошуковими краулер, тоді аналізуємо log-файлу сервера. Аналізу log-файлу сервера, може допомогти вам знайти помилки, порівнявши, як часто різні пошукові системи відвідують сайт.

2.8 - Sitemap

По-перше, перевіряємо, що на сайті є карта сайту в форматі - xml, зазвичай, це легко перевірити, перейшовши за посиланням www.site.com/sitemap.xml. Потім переходимо до звіту "Файли Sitemap" в розділі "Сканування", перевіряє, що файл доданий, протестований і в ньому немає помилок.

Перевіряємо, кількість доданих і проіндексованих сторінок, звіряємо загальне число з кількістю проіндексованих сторінок в звіті "Статус індексування", якщо є суттєві відмінності в числах, починаємо розбиратися більш детально.

Для зручності аналізу необхідно розділити sitemap, на різні частини, в кожному з яких будуть розміщені тільки сторінки з окремих категорій сторінок. Цей поділ допомагає зрозуміти, який тип сторінок погано індексується.

2.9 - Швидкості сайту

Швидкість сайту стає все більш важливою метрикою, на яку Google приділяє особливу увагу, вже як фактор ранжування . Швидкість сайту, критично важлива для зручності використання ресурсу, з огляду на постійно наростаючого мобільного тренда. З цим пунктом необхідно постійно боротися, роблячи все можливе, щоб зменшити швидкість завантаження сайту.

Існує кілька інструментів, які можна використовувати для перевірки швидкості сайту, але в першу чергу - PageSpeed ​​Insights , Це власний інструмент Google, який допомагає визначити швидкість завантаження сайту. Коли ви запустите інструмент, він визначить моменти, які ви повинні виправити, але він не дає докладного опису. В якості альтернативи можливо використовувати звіт "Аудит сайту" в Serpstat в розділі "Швидкість завантаження".

В якості альтернативи можливо використовувати звіт Аудит сайту в Serpstat в розділі Швидкість завантаження

Після цього, запускаємо безкоштовний інструмент WebPageTest , Який допоможе ідентифікувати окремі проблеми. Він показує час завантаження кожного окремого елемента сторінки, а також визначає, які елементи займають найбільше часу, такі, як HTML, JS, CSS, Зображення, Flash і Font.

Після запуску тесту, можна визначити проблемні місця, використовуючи індивідуальну розбивку по WebPageTest, знаходимо певні елементи, які можна видалити або зменшити.

2.10 - Robots.txt

Кожному сайту потрібен Robots.txt, він повідомляє пошуковим краулер, що сканувати і що ні сканувати. Зазвичай даний файл доступний за адресою - www.site.com/robots.txt. В якому потрібно перевірити, що він забороняє тільки не потрібні URL-адреси. По суті, він працює так само, як і тег noindex, але в ньому можливо заборонити пошуковим системам сканувати певні категорії сторінок, наприклад блог:
Disallow: / blog / *
Дана команда забороняє індексувати і сканувати всі сторінки блогу.

Правильність настройки перевіряємо в розділі "Сканування - Інструмент перевірки файлу robots.txt".

# 3 - Google Search Console vs Serpstat

Як можна помітити, Google Search Console, відмінний інструмент, який неможливо ігнорувати, але все ж в ньому є суттєві недоліки:

  • Необхідно додавання сайту в Google Search Console або мати доступ до інструмента, тому аналізувати можна тільки свої сайти.
  • Тривалий збір даних.
  • Чи не актуальні дані. Залежно від звіту, відставання може бути від 2 до 10 днів.

Тому для подальшого аналізу нам будуть потрібні сторонні сервіси, так як стаття для новачків, будемо використовувати безкоштовні можливості сервісу Serstat. Просто зареєструвавшись у нас з'являється можливість провести детальний SEO-аудит одного сайту, з обмеженням сканування до 100 URL. Якщо для вашого сайту сканування 100 URL недостатньо, то беремо мінімальний пакет, з ним з'являться ще купа крутих булочок .

Дивимося, як Serpstat сам розповідає про своє інструменті:

# 4 - Serpstat

І так, якщо у вас немає облікового запису в Serpstat - зареєструйтеся , Потім у інструменті додаємо свій сайт в "Проекти". У вікні, тиснемо "почати аудит сайту", після з'явитися сторінка з вашим сайтом, де буде показана статика.

4.1 - Title, Description і тег H1

Неправильно заповнені або відсутні Title, Description і тег H1, не тільки негативно впливають на пошукове просування, але і на кликабельность сайту в результатах пошуку, оскільки title або description, не оптимізовані, вони будуть генеруватися автоматично пошукачем.

Визначте, на яких сторінках вони не заповнені, дублюються або заповнені неправильного обсягу, просто натиснувши на конкретну помилку.

Title повинен містити 50-60 символами (з урахуванням пробілів), Description - 150-160. Тег H1 не мають технічних обмежень за кількістю знаком, але він повинен бути коротким, унікальним і не дублюватися!

4.2 - Дублювання HTTPS / HTTP

Наступний звіт, який необхідно перевірити, це правильно встановлена ​​протоколу HTTPS / HTTP, що б ідентифікувати будь-які дублікати.

У звіті визначаємо, чи існують окремі сторінки з різними URL-адресами на HTTP або HTTPS. Цей же звіт варто використовувати, щоб визначити, чи був перехід на HTTPS коректний.

Цей же звіт варто використовувати, щоб визначити, чи був перехід на HTTPS коректний

4.3 - Коди відповідей сервера

Перевірте, які коди відповідей сервера віддає сайт, не всі відповіді крім 200, можуть означати помилку. Давайте розберемося, які бувають відповіді сервера:

    • 3xx - немає нічого поганого в 301 редирект, але потрібно перевірити, чи немає будь-якого циклу редиректів, перевіривши, що вони проходять тільки одне перенаправлення, а не кілька.
      • 302 - тимчасова переадресація, її можна розглядати як 301, якщо вона встановлена ​​на тривалий період часу; тому, перевірте, щоб тільки в потрібних місцях було встановлено даний редирект.
    • 4xx - 400, 403 і 404 - найпопулярніші коди відповідей, які вказують на "помилку клієнта", кожен з них потрібно ретельно розглянути.
      • 400 - означає, що користувачі не може отримати доступ до сторінки;
      • 403 - доступ заборонений, частіше за все, означає, що користувач не авторизований для доступу до певної сторінці;
      • 404 - сторінка не знайдена, найчастіше означає, що сторінка видалена і не переміщена.
    • 5xx - внутрішня помилка сервера. Ця помилка швидше за все на стороні сервера і не обов'язково в цьому винен сам сайт, але з нею також необхідно розібратися і зрозуміти причину.

Ця помилка швидше за все на стороні сервера і не обов'язково в цьому винен сам сайт, але з нею також необхідно розібратися і зрозуміти причину

4.4 - Дублювання контенту

Повне сканування сайту необхідно для того, що б знайти все обхідні URL-адреси і скільки з них дублюють основні сторінки.

Щоб не потрапити під фільтр Google Panda, переконайтеся, що немає дубльованого контенту, так як він буде оцінюватися пошуковими системами, як контент низької якості. Тут вам доводиться звіт "дублюються Title".

Так само дубльований контент може з'явитися в зв'язку з не коректною налаштуванням HTTPS / HTTP, і версією сайту з і без «www». Тому перевірте звіт "Сертифікат HTTPS" і "Параметри сервера".

Після перевірте доступність сторінок з "/". Ось кілька прикладів посилань, які можуть створювати дубльований контент:

  • http://www.site.com
  • http://www.site.com/
  • http://site.com
  • http://site.com/
  • https://www.site.com
  • https://www.site.com/
  • https://site.com
  • https://site.com/

Як стандарт необхідно вибрати основну адресу сторінки, а всі інші варіанти повинні віддавати 301 відповідь сервера і перенаправляти на основний URL. Перед налаштуванням редиректів перевірте, які саме варіанти сторінок проіндексовані, оскільки це може привести до подальших проблем.

4.5 - Внутрішня перелінковка

Чи містить основне меню все обнародувано сторінки і зручно воно Чи містить основне меню все обнародувано сторінки і зручно воно. Внутрішні посилання так само важливі, як і зовнішні; структура сайту повинна бути побудована на принципі піраміди, де найважливіші сторінки отримують максимум посилань. Також важливо щоб всі сторінки були доступні в мінімальну кількість кліків з головної сторінки, середня кількість кліків до основної частини сторінок ви зможете побачити внизу звіту "Аудит сайту". В ідеалі потрібно намагатися, щоб до будь-якій сторінці сайту можна було потрапити максимум в три кліка, а на які обнародувано в один.

Перевірте, що б основні елементи навігації були реалізовані без використання JavaScript і Java, пошукові системи останнім часом домоглися значних успіхів в їх індексації, але сам Google, як і раніше радить реалізувати основну навігацію за допомогою HTML .

# 5 - Перевірка на сайті

5.1 - Rel = Canonical

Тег Rel = Canonical - атрибут, який можна використовувати, щоб уникати дублювання контенту. Він повинен бути налаштований на все, що можна було б назвати дубльованим контентом, наприклад сторінка, до якої в URL додаються будь-які змінні символи (UTM-мітки, ідентифікатори сесій і т.д.), повинна вказувати в Rel = Canonical посилання на основну сторінку , без змінних значень в URL.

5.2 - Код сторінки

Дана процедура вимагає певного розуміння HTML, але відкрийте вихідний код і просто подивіться, даний підхід може стати відмінним способом визначити проблему.

Це простий спосіб візуалізації того, як Google сканує сайт. Одна з найпоширеніших проблем, це величезні фрагменти коду в шапці сайту, які необхідно було стиснути. Проблема з непотрібними фрагментами коду вгорі сайту полягає в тому, що Google буде довго доходити до основної частини контенту, а це також коли ви заходите на сайт, а потім прокручуєте вниз два екрани, що побачити основний контент, і це потенційно може вплинути на ранжування контенту .

5.3 - Структура URL-адрес

Чи має сенс структура URL на сайті? Обнародувано сторінки, знаходяться в другій вкладеності? Ці питання, які ви повинні задати собі при аналізі структури URL-адрес сайтів. Вам потрібно з'ясувати, чи знаходиться кожна сторінка в підходящої категорії, а URL-адреси - точно описують зміст сторінки з входженням продукту, що просувається на ній ключового слова.

Читайте також: 15-хвилинний SEO аудит своїми руками

Ось пошук по найпопулярнішому запитом "buy viagra", і як ви думаєте "Сумський аграрний університет" і "Бетон від Ковальської" продають віагру на своїх сайтах?
Обнародувано сторінки, знаходяться в другій вкладеності?

Новости

Отель «Централь» Официальный сайт 83001, Украина, г. Донецк, ул. Артема, 87
Тел.: +38 062 332-33-32, 332-27-71
[email protected]
TravelLine: Аналитика


Студия web-дизайна Stoff.in © 2008