Швидкий аналіз сайту

Матеріал підготовлений на основі виступу Дмитра Бондаря (Boosta) на конференції NaZapad

Чому сайту може бути погано? 55% причин зростання або просідання досить прості: структура сайту (як він фізично зроблений), контент і посилання. Велика частина успіху/неуспіху сайту залежить тільки від цього.

Якщо комусь цікаво, на що доводиться ще 45% можливих причин, що впливає на успіх сайту, то їм краще звернутися саме до цих трьом громадянам, які на регулярній основі забирають гроші у чесних оптимізаторів:

Швидкий аналіз сайту

Як вони це роблять? Змінюють пошукові алгоритми, вигадують нові пессимизирующие фільтри і т. д. Тому в деяких випадках з сайтом зовсім нічого не можна зробити, навіть якщо він сам відмінний, містить корисний контент і хороші посилання.

Розглянемо методи аналізу підвладних вебмайстру 55%.

Індекс

Перше, що потрібно проаналізувати, це присутність сайту в індексі ПС. Для цього використовується оператор site:. Вкарбований в пошуковий рядок [site: ваш сайт] — це те, з чого починають аналіз сайту всі seo-фахівці.

На що необхідно звертати увагу в в отриманій за таким запитом видачі:

  1. Головна сторінка сайту повинна бути на першому місці. Якщо це не так, то у сайту великі проблеми — найвірогідніше він глибоко під якимось фільтром ПС.
  2. Кількість сторінок сайту, проіндексованих пошуковою системою, має відповідати їх реальної кількості. Якщо аналізуємо свій сайт, то ми приблизно знаємо, скільки у нас створено сторінок — важливо, щоб це число не надто відрізнялося від результатів, що видаються пошуковою системою, ні в ту ні в іншу сторону.
  3. Правильний порядок лендингов у видачі. Найважливіші сторінки сайту повинні йти відразу після головної — це, як правило розділи, сторінки лістингу товарів, блог компанії і т. д. Якщо щось, що ніяк не просувається, показується на 3-4 місці після головної сторінки — це сигналізує про те, що з сайтом щось не так.
  4. Дати оновлення сторінок повинні бути свіжими. Якщо це не так, то це також є свідченням неблагополуччя сайту.
  5. Фрагменти повинні бути без переспама. В принципі, осмислені фрагменти є показником того, що над сайтом працюють. Якщо у фрагментах відображається якась нісенітниця, це означає, що description не заповнений і пошукова система сама підтягує в сніппети, що їй під руку попадеться.

Далі в пошуковому рядку до оператора site: необхідно додати www для того, щоб перевірити в індексі наявність сміттєвих сторінок, які можуть туди потрапити випадково, після якої-небудь роботи над сайтом. Всі знайдені сторінки повинні бути закриті від пошукових систем robots.txt.

Після цього бажано зайти в пошук за допомогою VPN і ще раз подивитися на сайт. Таким чином можна побачити результати пошуку без персоналізації — а саме те, що бачить в пошуку інтернет-користувач, який не ходить на цей ресурс кожен день.

Також дуже корисно подивитися на свій сайт улюбленим браузером (не тим, який постійно використовуєте), таким чином іноді можна виявити дуже «цікаві» речі, над якими також треба попрацювати і усунути.

Траст

Траст сайту — поняття досить відносне. Ніде точно не описано його вплив на позиції сайту, проте, всі seo-фахівці знають, що трастовий ресурсу дуже важлива. Оцінити траст сайту, не вдаючись ні до яких спеціальним інструментам можна, ввівши в пошуковий рядок його назву без вказівки доменної зони (або просто ввести в пошукову рядок назву свого бренду).

Тут важливо звертати увагу на все. Якщо при введенні імені сайту чи бренду ПС пропонує вибрати щось інше (з виправленою буквою, пропусками і т. д) — це сигнал про те, що трастовий ресурсу залишає бажати кращого. Значить, його в пошуку шукає не так багато людей і ПС не обізнана про те, що існує продукт, який називається саме так.

Швидкий аналіз сайту

Безумовно, на першому місці видачі за таким запитом повинен йти потрібний сайт. Якщо це не так, то це говорить про низький трасті ресурсу, і з цим обов’язково потрібно попрацювати.

Далі вводимо в пошуковий рядок ім’я сайту разом з доменом. Пошуковий сайт повинен залишатися у видачі першим по цьому запиту. Також варто звернути пильну увагу на сниппет — за неофіційними даними, ніж він осмысленней і довше, тим вище траст аналізованого ресурсу.

Проскроллив результати видачі, варто звернути увагу на ті ресурси, які з’являються у видачі відразу після результатів, що містять назву шуканого сайту. Таким чином можна виявити не тільки крадений з сайту контент, але і конкурентів, які таргетятся під потрібний домен або бренд-нейм. Таким чином теж можна оцінити траст сайту — якщо він слабенький, то сторінки більш трастових конкурентів можуть відображатися в пошуку вже починаючи з 3-4 позиції.

Нормальним для сайту є заняття перших 10 рядків в пошуковій видачі по цьому запиту. На всяк випадок варто заглянути і в robots.txt аналізованого сайту, щоб оцінити обсяг закритих від пошуку сторінок.

Не зайвим також буде перевірити сайт на вміст заборонених тематик. Для цього використовуються запити такого типу — [site:домен viagra], [site:домен porno], [site:домен casino online] та ін. Це робиться по причині того, що не завжди можна побачити очима те, що міститься в коді сайту, а пошукові системи це бачать і можуть враховувати.

Висновки:

Якщо за запитом, що містить назву сайту, на першому місці не відображається головна сторінка, це практично на 100% фільтр. Тут може бути тільки один вихід — робити новий сайт.

Якщо було виявлено розбіжність сторінок в індексі ПС з їх реальною кількістю, то швидше за все сайт проблеми зі структурою (вона або неправильно зроблена, або криво зверстана), з вкладеністю сторінок, з їх індексацією (помилки вебмастера), або з контентом (не дуже релевантний, не подобається ПС).

Якщо спостерігається невірний порядок відображення лендингов після головної сторінки, то тут також слід звинувачувати оптимізатора, тому що саме він накачує вагою певні сторінки, а також варто детальніше проаналізувати структуру коду.

Якщо дати оновлення сторінок не свіжі, то швидше за все у сайту або низький траст, або дуже великий розмір самого сайту, або дуже поганий контент низької якості.

Фільтри

Швидко визначити наявність фільтрів Google на своєму сайті можна скористатися спеціальними сервісами, наприклад, сервісом від Barracuda, який відмінно і дуже точно визначає наявність санкцій ПС. Там можна подивитися всі апдейти пошукового алгоритму Google і точно визначити, після якого з них почалося падіння (якщо почалося).

Швидкий аналіз сайту

Рекомендується перевірити свій сайт через цей сервіс навіть у тому випадку, якщо немає особливого просідання трафіку і не передбачається наявність якихось фільтрів. Найчастіше ці фільтри можуть бути в наявності, і навіть якщо вони ніяк не позначаються на позиціях сайту, вони абсолютно точно можуть сповільнювати і навіть зупиняти його подальше зростання.

Для аналізу клієнтського сайту можна використати дати апдейтів, які є в сервісі Barracuda (де рекомендується зареєструвати свій сайт), а потім за допомогою сервісів Semrush або Ahrefs подивитися графіки позицій шуканого сайту і таким чином визначити, після якого з апдейтів почалося падіння.

Робота над сайтом

Проаналізувати сайт на предмет того, наскільки їм займаються/займалися фахівці, можна за допомогою швидкого і умовно безкоштовного (5 звітів) інструменту Builtwith. Цей сервіс визначає наявний на сайті технічних софт:

Швидкий аналіз сайту

Якщо на сайті можна побачити більше однієї системи аналітики, a/b-тести, просунуті плагіни, то можна зробити висновок про те, що над сайтом працюють, і команда ним займається. Таким чином можна відстежувати і своїх конкурентів, щоб зрозуміти, який їх загальний підхід до роботи над сайтом.

Контент

Для швидкого аналізу контенту сайту є безліч зручних інструментів. В першу чергу можна рекомендувати Siteliner, який сканує сайт (250 сторінок безкоштовно) і видає кількість наявних дублів сторінок, вагу сторінок і кількість слів.

Крім того, інструмент показує кількість наскрізних блоків (match pages), дубльованих на великій кількості сторінок — це різні меню, відгуки, однакові блоки контенту. При першому погляді це може бути непомітно, якщо вдало вбудовано в дизайн сайту, однак, робот сприймає зовсім по-іншому і, швидше за все, визначає, що на таких сторінках корисного і унікального контенту недостатньо.

Проаналізувавши вага сторінок (page power) сайту, потрібно переконатися, що всі важливі лендінгем отримують найбільшу вагу. Якщо це не так, то робимо висновок, що на них веде недостатня кількість посилань і над цим потрібно попрацювати.

Перевірити наявність дублів з точки зору ключових слів можна за допомогою все того ж оператора site:, задавши в пошуковому рядку запит [site:домен ключ]. Таким чином можна оцінити, які сторінки, просуваються по ключовим запитам, мають більшу вагу, і над якими з них, можливо, потрібно попрацювати. Таким же чином можна проаналізувати тайтли і входження ключів.

Резюмуючи, можна сказати, що внутрішній плагіат рідко є причиною якихось серйозних проблем сайту. Виняток становлять тільки многостраничники — сайти з більш ніж 200 тис. сторінок — в цьому випадку дублювання може бути великою проблемою.

Основною метою контентного аналізу є визначення ваги значущих для сторінок сайту і розробка стратегії по їх просуванню.

Структура сторінки

У сучасному світі сторінку сайту можна оцінити легко і просто, подивившись на неї очима користувача з екрану мобільного пристрою. Якщо користувачеві легко орієнтуватися на сторінці і вирішити своє завдання, значить, зі сторінкою все в порядку. Якщо ж виникають якісь труднощі — це привід для того, щоб зайнятися її поліпшенням.

Важливо пам’ятати, що сторінка сайту повинні виглядати адекватно, як з точки зору користувача з мобільним телефоном, так і з точки зору пошукового робота. Тому звертаємо увагу на наявні редиректи, на заголовки, тайтли і % входження ключів.

У наведеному нижче прикладі можна побачити, як у начебто адекватною у всіх відносинах сторінки, що міститься в назву найменування товару знаходиться далеко не на першому місці і з невеликим відсотком входження:

Швидкий аналіз сайту

Для порівняння, якщо подивитися таким же чином сторінки всіх конкурентів цієї сторінки за запитом у видачі Google, можна побачити наступне:

Швидкий аналіз сайту

Це все виливається в те, що незважаючи на вік і трастової магазину, ця сторінка в очах пошукової системи програє конкурентам. Тому не забуваємо дивитися на сторінки сайту очима робота через Google Search Console, або, якщо такої можливості немає, — через кеш пошукової системи (текстова версія сторінки). Текст, що відноситься до товару чи послуги, які представлені на сторінці, не повинен знаходитись як можна ближче до початку, а не в самому низу, після кошика, списки, меню та ін.

Посилання

На жаль, швидко проаналізувати посилальну масу не вийде. Це вимагає досить багато часу і застосування спеціальних інструментів. Тим не менш, загальне уявлення про посиланнях на сайті можна отримати, подивившись анкор-лист (однієї сторінки / всього сайту).

На що звертати увагу:

  • анкор-лист повинен бути природним для ніші / регіону / мови
  • збалансованим по кожній важливій сторінці
  • релевантним, кеп!

Швидко проаналізувати якість посилань можна за допомогою того ж Ahrefs, за наступним графіком:

Швидкий аналіз сайту

Результати виконаної роботи з сайтом бажано зібрати в якусь подобу чек-листа, щоб надалі з ним було зручно працювати. Також необхідно заміряти всі показники, які бажано поміняти (індекс, видимість і т. д.) і приступати до роботи над сайтом. Практика показує, що підхід — змінити щось одне і подивитися на результати — працює значно гірше, ніж виправляти відразу всі косяки і одночасно вносити поліпшення, а потім вже дивитися на загальний результат.

По материалам: www.searchengines.ru