Статистичний аналіз у роботі SEO

Автор: Рожкова Катерина
22 Грудня 2021, 09:53

Статистичний аналіз у роботі SEO

Експерт із SEO Артем Пилипець розповів покроково і з прикладами, навіщо потрібно проводити статистичний аналіз даних для покращення відвідуваності сайту. Також про те, як не потрапити у спам, читайте на нашому сайті. 

Керівник відділу просування SEO7 і засновник «Школа SEO» Артем Пилипець під час першої SEO-конференції Сollaborator розповів, як статистичний аналіз може полегшити роботу.

Рано чи пізно будь-який SEO-шник стикається з такою проблемою, коли не всі проєкти після базової оптимізації зростають достатньо добре. Саме в цей момент може допомогти аналіз даних.

Спираючись на останні дослідження Google, Пилипець говорить, що найпоширенішою проблемою у технічному SEO лишається імплементація правок. Тобто коли ми говоримо про виправлення якихось технічних помилок на сайті, то є неправильним братися одразу за найскладніші – треба починати з базових помилок.

Коли необхідно покращити позиції сторінок, SEО-фахівці зазвичай будують гіпотези та тестують їх. Це логічний і простий підхід, проте він має слабкі місця. По-перше, це довго, адже на тестування кожної гіпотези йде чимало часу. Добре, коли сайт має високу відвідуваність, тоді можна отримати тисячі переходів на потрібні сторінки за досить короткий проміжок часу. А що робити, якщо сайт невеликий і на тестування гіпотез підуть місяці? Тоді цей метод не підходить.

І по-друге, якщо ви працюєте в клієнтському SEO або над вами є начальник, то левову частину часу забирає постійне погодження гіпотез. Також, щоб створити ефективні гіпотези, спеціаліст повинен мати досвід у цій сфері. Але якщо ж людина сама веде свій невеликий сайт, то є логічним, що вона не зможе отримати такий досвід швидко. Усе це призводить до того, що оптимізації через гіпотези працюють не так якісно, як би нам того хотілося. Саме тому у пригоді стає аналіз даних.  

Спочатку слід зібрати дані. Експерт радить зробити це через інструмент Screaming Frog та IP-сервіси, які вбудовані в нього. А сам аналіз даних можна проводити в безоплатній програмі Orange Data Mining. Також допоміжними є Google Search Console та Ahrefs. Останній є платним сервісом, але він дає змогу отримати дані про зворотні посилання, зіставити всі ті дані в одному великому файлі.

«Завдяки інформації, яку ми можемо зібрати через ці сервіси, зрозуміємо причини неіндексації сторінки, зможемо порівняти успішні та неуспішні сторінки або отримати аналіз закономірностей, коли сторінки потрапляють до рекомендованих посилань у розділах Google Discovery та Google News. Якщо у вас інформаційний сайт, то потрапляння до Google Discovery – дуже бажана подія. Бо якщо хоч би одна ваша новина “залітає” туди, то ви отримаєте багато трафіку. Тобто якщо ви налагодите виробництво контенту, який заходить у рекомендаційні стрічки на постійній основі, то можете примножити свій трафік у 10, а то і у 20 разів за дуже короткий проміжок часу», – наголошує Пилипець.

Збирання даних і відрізання викидів

Отже, експерт розповідає покроково, як зібрати потрібні дані.

Спершу треба завантажити Screaming Frog та під’єднати API. Тут варто не забути налаштувати перевірку дублікатів. А після того як просканували «скримінфрогом» сайт, слід запустити сервіс Crawl Analysis. Це допоможе отримати додаткові показники з перелінкування за вагою сторінки всередині сайту та інформацію щодо часткових дублікатів.

Наступний крок – вивантажити отримані дані в CSV стандартним експортом.

На фото представлений шаблон роботи з Orange Data Mining. Це такий собі візуальний редактор, який дає змогу з готових блоків збирати якісь послідовності для подальшого аналізу.

Перший блок – імпорт CSV-файлу. До речі, перед цим треба підготувати дані, тобто упевнитися, що вони правильно імпортуються. Також цифрові значення мають сприйматися під час імпорту саме як цифрові значення. А ще заздалегідь варто видалити чи відсіяти всередині рядки даних, які заповнені не повністю. Якщо не позбутися таких рядків, це може призвести до виникнення похибок.

Далі потрібно побудувати гістограму, а потім відсікти викиди розбивки даних на діапазони. Простіше кажучи, слід відкинути найбільші та найменші значення. Наприклад, необхідно зрозуміти, які сторінки мають найбільше та найменше показів, і знайти закономірності, чому в пошуковику одні краще чи гірше відображаються. Але серед таких сторінок у нас, звичайно, є дуже популярні – це головна сторінка, яка збиратиме найбільші показники за будь-яких розкладів. Хоча б тому, що цю сторінку вибиватиме під час згадування назви бренду. Ось така сторінка називається в аналізі викидом, її краще усунути. І навпаки – є сторінки з контактами чи з оплатою послуг, які природно отримують мінімум показів. Їх теж слід прибрати, щоб наша статистика не викривилася. Для найкращого результату гістограми можна ще нарізати за діапазонами, наприклад, від 10 тис. переглядів до 50 тис., від 50 тис. до 100 тис. й так далі.

Розмітка сторінок за типами

Перед тим як заливати обраний діапазон даних у сервіс для аналізу, варто ці дані розмітити. Тобто перевірити: проіндексовані сторінки чи ні. Якщо сайт невеликий, то можна вивантажити статистику з Google Search Console і там подивитися, яка сторінка є в індексі, а якої немає. А також треба розмітити сторінки за типами. Якщо у вас онлайн-казино, то можна позначити сторінки ігор і сторінки категорій. Адже ключові слова, за якими ви оптимізуєте розділи, найчастіше є різними. Тому для якоїсь конкретної гри отримувати 1000-1500 результатів показів може бути нормальним, а от якщо, наприклад, стільки ж отримує інша категорія ігор, то це вже є дуже поганим явищем. Тому, щоб зробити правильні висновки, слід порівнювати сторінки одного типу та шукати закономірності всередині групи одного типу.

Далі можна створити діаграму розсіювання. Це найпростіший підхід до отримання результатів. Потрібно натиснути на розділ «Знайти інформативні набори даних», а потім за допомогою кольорів відокремити проіндексовані сторінки від непроіндексованих. Тоді будуть помітні кластери чи групи, які треба вивчити за наступними показниками: кількість внутрішніх посилань чи зовнішніх, обсяг контенту тощо. Вже на цьому етапі можна зробити певні висновки.

«На моєму графіку ви бачите групу, яку я обвів жовтим кольором, частина сторінок знизу повністю не індексується. А ті, що зверху, індексуються. Тобто сторінки дуже схожі, але зміна одного значення, а саме кількості унікальних внутрішніх посилань, робить сторінку або індексованою, або неіндексованою. А ось у другій групі, яка обведена фіолетовим, деякі сторінки мають невелику кількість унікальних внутрішніх посилань, але все одно індексуються. Виявляється, на це вплинула велика кількість вихідних внутрішніх посилань. До речі, не унікальних, а звичайних», – пояснює на прикладі експерт.

Ось ця картина, продовжує Пилипець, вже дає змогу будувати якісь гіпотези, щоб покращити індексацію сторінок. Наприклад, якщо ми візьмемо непроіндексовані та поставимо на них більше унікальних внутрішніх посилань, то це мусить підняти їх на графіку й вони мають проіндексуватися. Водночас, якщо ми створимо на сторінці більше вихідних внутрішніх посилань, то у них також мають підвищитись шанси на індексацію.

«Скриньки з вусами»

Є ще один досить простий підхід – порівняння графіків, які називаються «скринька з вусами». Тут можна взяти дві групи сторінок і подивитися, наскільки їхні фактичні показники відрізняються між собою. Наприклад, у нас є проіндексовані та непроіндексовані сторінки або сторінки, які не потрапляють та потрапляють до Google News тощо. Тут слід звернути увагу на те, наскільки великою є різниця за показниками, які нас цікавлять.

Наприклад, на наведених вище фото видно, що кожна сторінка у групі (розташована зверху) зі звичайними новинами має в середньому 465 слів. А та група, яка потрапила до Google Discovery (розташована знизу), має в середньому вже 532 слова на сторінці. Різниця невелика, але якщо порівняти інші показники, то з’ясується, що це єдина різниця між цими двома групами. Тут можна зробити гіпотезу, що збільшення обсягу сторінки буквально на якихось 80 слів підвищує й шанси потрапити до Google Discovery. Після цього можна вже на практиці почати це перевіряти.

«Можливостей в Orange Data Mining дуже багато – там можна будувати кореляції, кластеризації, створювати цілі моделі з якимись складними послідовностями та аналізувати різні аспекти даних. Але навіть побудова ось таких примітивних речей, як гістограма чи “скринька з вусами”, дає нам змогу вже за 10-15 хвилин подивитися на наш сайт по-іншому», – зауважує Пилипець.  

Проте спікер попереджає, що тут є небезпека неправильно інтерпретувати отримані дані. На прикладі інформації про відмінність кількості слів на останньому графіку одразу можна запропонувати збільшити кількість слів на сторінках. Але їх можна збільшити по-різному: дописати більше у нижній блок, де вказують корисну, проте не найважливішу інформацію, чи додати у навігаційний блок тощо. Але логічним є припущення, що основна відмінність полягає у різниці слів саме у контентній області. Тому тут варто підрахувати, скільки слів у додатковому та основному контенті. А вже потім запропонувати внести корективи у роботу копірайтерів.

«А ще користь від аналізу даних полягає у тому, що ми краще відсіюємо неефективні гіпотези. До того ж ми не просто пропонуємо якусь версію, а можемо її обґрунтувати відповідно до отриманої інформації, а не відповідно до своїх фантазій», – резюмує експерт.

Нагадаємо, Роман Чесановський поділився своїми секретами успішної роботи з арбітражем.

Читайте також: Легалізація грального бізнесу

Читайте також: Державні лотереї України

Коментарі:
Зараз читають
вгору