Агентство поискового маркетинга
Украины №1 с 2006 года

Спасибо! Ваша заявка успешно отправлена.
В ближайшее время с вами свяжется специалист.

Закрыть

Как не убить сайт улучшениями?

Как не убить сайт улучшениями? - фото 1

Чтение блогов и руководств различных поисковых систем приводит к однозначному впечатлению: нужно ориентироваться на пользователей, а остальное в виде трафика и конверсий приложится. В общем-то, это правильно. Если контент, сервис, магазин пользователям понравится, его рейтинг в поисковой выдаче будет расти. Правда, на практике слепо ориентироваться на пользователей может быть опасно.

Концепция ориентированности на пользователей очень популярна. Один из секретов этой популярности заключается в ее простоте. Это легко понять, данная концепция идеально согласовывается со здравым смыслом. Все что нужно – это улучшать сайт, не заботясь ни о чем другом. Но такой подход часто оборачивается катастрофой.

Вот несколько примеров того, как позитивные изменения на сайте могут его практически «убить».


Объединение страниц для большего удобства

Иногда может возникнуть соблазн объединить уже существующие страницы и получить тем самым страницы универсальные, которые по задумке должны быть удобнее для пользователей. Сайт при этом должен стать чище и проще, что позитивно сказывается на восприятии. Но каждая существующая на сайте страница имеет свой рейтинг по определенным ключевым словам. Если не учитывать массу технических нюансов, которые с этим связаны, можно очень легко потерять практически весь трафик и остаться ни с чем.

Опыт показывает, что от этого не застрахованы даже крупные компании. Нередко после реструктуризации, объединения страниц и сокращения контента трафик падает катастрофически, и восстановиться до прежнего уровня бывает очень непросто.


Использование асинхронных запросов

Асинхронные запросы или AJAX – это популярная технология, которая позволяет загружать контент на сайт без перезагрузки страницы. Например, с помощью AJAX работает почта Google Gmail и многие другие сервисы и сайты. Причем в последнее время асинхронная загрузка становится все более популярной. Тем более что ее усиленно продвигают Google и Facebook, вкладывая миллионы долларов в собственные решения, такие как Angular и React.

Сайты на AJAX действительно получаются современными, быстрыми, приятными в использовании. Очевидно, пользователям такой подход в выборе технологий придется по душе. Однако в этом подходе есть серьезная уязвимость: поисковые боты не способны читать сайт, созданный на основе данной технологии. Как итог, страницы сайта не смогут участвовать в поисковой выдаче и не будут генерировать трафик. Поэтому на данный момент AJAX лучше использовать для приложений, но не для сайта.

Впрочем, существуют способы обойти эти ограничения и все-таки заставить поисковые системы корректно работать с такими сайтами. Но эти решения нетривиальные, часто сложные в реализации и требующие дополнительных серверных мощностей.


Изменение структуры URL

Обычно структура ссылок (URL) на сайте отражает его содержание. Например, структуру каталогов и подкаталогов, рубрики и подрубрики товаров и тому подобное. С течение времени сайт может существенно видоизмениться (обычно так и происходит), поэтому возникает мысль отразить изменения в структуре ссылок. Сделать ссылки более простыми и удобными, исправить изъяны, которые были изначально встроены в структуру.

Однако, изменение структуры сайта – опасное мероприятие. Все страницы после внесения изменений поисковыми системами будут восприниматься как новые, обратные ссылки перестанут учитываться, а старые страницы будут считаться утерянными. С этим можно бороться, но если сайт большой, со сложной структурой и тысячами страниц, решение может оказаться чрезвычайно сложным. Подобные изменения должны тщательно планироваться и выполняться специалистами с большим опытом. 

Если сайт рейтинговый и приносит хороший доход, вероятно, от улучшения структуры URL придется полностью отказаться. Здесь нужен качественный анализ потерь и выигрышей. Для не очень большого сайта, который только набирает обороты, изменение структуры может быть очень полезным, в других случаях – это может привести к катастрофическим последствиям.


Изменения в содержании

Каждая страница имеет заголовок, тематику, ссылки, определенные ключевые слова и фразы и многое другое. Очевидно, все это можно улучшать до бесконечности. Вряд ли однажды наступит такой момент, когда содержимое каждой страницы можно будет считать идеальным. В связи с этим может возникнуть желание все-таки попытаться и улучшить содержание, например, переписав заголовки, мета-тэги, заменив иллюстрации и другие фрагменты информации. Если все сделано правильно, это может улучшить страницы для пользователей.

С другой стороны, это может уничтожить весь трафик. Каждая проиндексированная страница уже проанализирована поисковыми системами, у нее есть рейтинг и некоторая степень доверия, проверенная временем. Если же содержание страницы будет изменено, то вполне можно ожидать, что трафик просто исчезнет. И далеко не факт, что будет восстановлен со временем – еще неизвестно, как бот поисковой системы оценит внесенные изменения.


Выводы

Удобство для пользователей – это фактор ранжирования, который очень важен и над которым следует думать постоянно. Но когда дело доходит до практического внедрения того или иного решения на сайт, нужно хорошо понимать его механизмы, работу поисковых систем и к чему все это может привести в конечном итоге. Соответственно, чтобы контролировать ситуацию, следует проводить подобные работы вместе с техническими SEO-специалистами.
Оставить заявку