banner banner banner
Поисковое продвижение сайтов
Поисковое продвижение сайтов
Оценить:
Рейтинг: 0

Полная версия:

Поисковое продвижение сайтов

скачать книгу бесплатно

2. В теле тега <title> должно присутствовать точное вхождение основного запроса, под который оптимизирована страница. Также в него можно включить вхождения второстепенных запросов и полезную информацию для пользователей (бренд, отзывы, цена, скидки, телефон, сведения о доставке). При этом нужно избегать переоптимизации (чрезмерного употребления) по главным и второстепенным ключевым словам.

3. Ключевые слова лучше размещать ближе к началу заголовка. Это влияет как на позицию в выдаче, так и на CTR (на такой заголовок больше кликают).

4. Текст заголовка должен быть осмысленным и привлекательным для клика. Нужно помнить, что именно его видит пользователь в результатах выдачи.

5. Весь заголовок рекомендуется вмещать в 70 символов, так как есть вероятность, что большее количество текста пользователь просто не увидит из-за ограничений верстки на странице выдачи поисковых систем. Приблизительно это 1–2 небольших словосочетания. Ограничениями можно пренебречь, чтобы разместить действительно важную для пользователей информацию (есть вероятность, что поисковая система покажет эту часть заголовка при вводе пользователем соответствующего запроса). При этом нужно помнить, что чем больше слов в <title>, тем меньше вес у каждого слова, поэтому чем заголовок содержательнее и короче, тем лучше.

6. Необходимо проанализировать заголовки успешных конкурентов, которые уже присутствуют в выдаче по нужным ключевым словам. Это не только поможет определить оптимальную длину заголовка, но и подскажет, какую информацию стоит в нем разместить.

7. <title> должен быть уникальным для всех страниц в пределах одного сайта.

Для больших сайтов часто кажется слишком трудоемким заполнение тега заголовка для всех страниц в ручном режиме. Зачастую это иллюзорное впечатление: объем усилий оказывается не таким уж большим и с лихвой окупается полученным эффектом.

Но если ручной режим представляется нецелесообразным, можно сгенерировать метатеги по шаблону. Подробнее мы поговорим об этом ниже.

Метатег <description> (описание страницы)

Метатег <description>[22 - https://yandex.ru/support/webmaster/indexing-options/description.html] описывает содержимое веб-страницы. Он также очень важен, так как на его основе поисковые системы зачастую формируют сниппеты, и, следовательно, от его качества напрямую зависит популярность сайта.

? На заметку

Сниппет – это небольшой фрагмент текста, который мы видим на странице поисковой выдачи вместе со ссылкой на сайт. Сниппеты напрямую влияют на кликабельность, и их оптимизации посвящен отдельный раздел в этой книге.

При формировании содержимого метатега < description> необходимо выполнять следующие рекомендации:

1. В теле < description> должно присутствовать точное вхождение основного запроса, под который оптимизирована страница. Также в него можно включить: вхождения второстепенных запросов и полезную информацию для пользователей (бренд, отзывы, цена, скидки, телефон, инфо о доставке и прочее). При этом нужно избегать переоптимизации (чрезмерного употребления) по главным и второстепенным ключевым словам.

2. Текст должен содержать призыв к действию и быть привлекательным для клика.

3. Желательно делать основное содержимое < description > короче 160 символов. Но нужно учитывать, что количество символов, которые выводятся в сниппете на странице с результатами поиска, может в любой момент измениться. Поэтому текст описания может быть и более 160 символов. Главное, чтобы это была полезная и нужная для пользователей информация. 160 символов – это 2–4 небольших предложения. Допускается, когда эти предложения взяты из текста на странице (желательно из верхней его части). Это почти гарантированно приведет к тому, что сниппет будет формироваться поисковыми системами именно на основе содержимого <description>.

4. <description> должен присутствовать на всех страницах и быть уникальным в пределах сайта.

5. Хорошим приемом повышения кликабельности сайта на странице поисковой выдачи может быть вставка в описании специальных символов и значков (самолет, телефон, решетка и прочее). О том как это сделать, можно легко найти информацию в Сети.

Шаблонизация

Для больших веб-проектов актуальна проблема ручного заполнения метатегов на всех страницах. Этих страниц просто слишком много, хотя выше мы отмечали, что часто эта проблема надуманная: на заполнение метатегов понадобится не так уж много времени, а затраченные усилия с лихвой окупятся хорошими позициями в поисковых системах.

Но если вопрос стоит остро, на помощь придут автоматические скрипты и конкатенация.

? На заметку

Конкатенация – операция склеивания объектов линейной структуры, обычно строк. Например, конкатенация слов «микро» и «мир» даст слово «микромир»[23 - https://ru.wikipedia.org/wiki/KoHKaTeHau,Ha].

Заниматься написанием скриптов должны программисты, это технический вопрос. Важнее другой момент: как составить тексты для заголовков и описаний?

Универсальных рецептов нет, но важно понимать, что схема конкатенации – это составление шаблонов для определенных видов контента, где на место свободных полей можно подставить конкретные значения с каждой страницы.

Допустим, нужно заполнить метатеги для большого количества продуктовых страниц на сайте интернет-магазина парфюмерии. Для начала необходимо определить, как пользователи движутся по сайту. Пусть это происходит так: главная – категория – продукт. Эти три переменные необходимо заполнить.

Далее определяются дополнительные параметры и слова, которые важны для пользователей. Для этого необходимо проанализировать хвост низкочастотных запросов, который возникает при проверке основного запроса. Например, вот что мы видим при проверке в сервисе Яндекс. Wordstat[24 - https://wordstat.yandex.ru/] категории «женские духи»:

Анализируем таблицу и выбираем то, что волнует покупателей женских духов (цена, фото, отзывы, купить…).

Переходим к построению шаблона заголовка. Например, для страницы с товаром он мог бы быть таким:

{название категории} {название товара} – купить в {название магазина}. Цена от {цена} р., фото, отзывы, доставка.

После подстановки всех переменных получим:

Женские духи Dia Woman – купить в магазине Beauty. Цена от 17 800 р., фото, отзывы, доставка.

С мета-описанием аналогично. Если на страницах сайта есть подробное описание товара – можно планировать схемы детальнее, включать больше параметров и полезной для пользователей информации.

Рекомендуется делать схемы для каждого раздела сайта. Чем детальнее их проработать, тем лучше, хотя стоит помнить о балансе затрат и полученных результатов.

Метатег <keywords> (ключевые слова)

На заре развития поисковых систем появилась красивая, но наивная идея о том, что веб-мастера будут сами подсказывать поисковым системам те ключевые слова, которым релевантна та или иная веб-страница.

Для реализации этой теории ввели метатег <keywords >, слова из которого имели серьезное значение при ранжировании документов.

Что произошло дальше, догадаться нетрудно. Веб-мастера и специалисты по продвижению начали запихивать в <keywords> все ключевые слова, по которым они хотели продвинуть сайт в результатах поиска. На релевантность никто не обращал внимания: зачем эти тонкости, когда можно было в короткий срок продвинуться по всем нужным коммерческим запросам?

Масштаб злоупотреблений достиг такой величины, что поисковые системы вынуждены были свести влияние <keywords> буквально до нуля, поэтому на данный момент заполнять этот тег бессмысленно.

Если тег все-таки заполняется содержимым (так сказать, на всякий случай), необходимо соблюдать простые правила. Содержимое <keywords> должно быть уникальным в пределах сайта, все ключевые слова должны быть релевантны странице, и их должно быть немного.

В противном случае поисковые системы могут воспринять содержимое метатега <keywords> как веб-спам и понизить сайт в результатах поиска.

Метатег <robots>

Данный метатег[25 - https://developers.google.com/search/reference/robots_metatag?hl=ru] позволяет контролировать сканирование и индексирование сайта поисковыми системами. По умолчанию задаются значения «index, follow» (то же самое, что «all») – дополнительно их прописывать не нужно. Разные поисковики распознают разные значения тега, но универсальными являются два:

– noindex: запрещает индексирование страницы;

– nofollow: запрещает роботу переходить по ссылкам с этой страницы.

Эти значения можно комбинировать, разделяя их запятыми. Например, комбинация

<meta name=«robots» content=«noindex, follow»/> заставит робота поисковиков перейти по всем ссылкам на странице, но не индексировать ее содержимое.

Нужно отметить, что использование данного метатега, как правило, свидетельствует о проблемах со структурой сайта. С такими проблемами еще можно мириться на огромном портале, где регулярно возникают трудноустранимые с программной точки зрения «тупики» (страницы, представляющие мало интереса для пользователей и возникающие вследствие несовершенства архитектуры сайта). Но для небольшого проекта это недопустимо.

? На заметку

Данное правило является частным случаем другого, более универсального, принципа, который звучит так: «Пользователи и поисковые системы должны видеть одинаковый контент». Если на сайте возникают страницы, содержимое которых нецелесообразно индексировать поисковому роботу, необходимо задуматься о том, а стоит ли их «индексировать» пользователям сайта и какое впечатление такие страницы на них произведут? Не проще ли просто их убрать?

Остается добавить, что использование данного тега для управления индексированием менее предпочтительно по сравнению с правильным формированием файла robots.txt (о нем мы поговорим позже).

10. Поиск и устранение дублей

Идентичный (дублированный) контент на разных страницах сайта может привести к ошибкам индексации и даже свести на нет все усилия по продвижению. Чем опасны дубликаты и почему от них стоит избавляться?

Во-первых, на дубли уходит часть статического веса, а неправильное распределение веса ухудшает ранжирование целевых разделов сайта.

? На заметку

Статический вес – это один из важных параметров, влияющих на продвижение сайта в целом и конкретной страницы в частности. Вес определяется количеством и качеством ссылающихся на страницу документов (в основном, html-страниц, но учитываются еще pdf и doc-файлы, а также другие распознаваемые поисковиками документы с гиперссылками).

Во-вторых, на дубли тратится часть драгоценного краулингового бюджета. Особенно остро эта проблема стоит для крупных информационных и e<ommerce (онлайн-торговля) проектов.

? На заметку

В Интернете триллионы веб-страниц, и каждый день появляются сотни миллионов новых веб-страниц. В этой связи перед поисковыми системами стоит серьезная проблема: как успевать обходить, скачивать и ранжировать все это огромное хозяйство.

Для обхода страниц используются роботы. Поисковый робот («веб-паук», «краулер») – программа, являющаяся составной частью поисковой системы и предназначенная для перебора страниц Интернета и занесения информации о них в базу данных. Очевидно, что каким бы мощным и быстрым не был краулер, скачать единовременно все обновления со всех сайтов у него не получится.

Из-за этого паук скачивает сайты постепенно, небольшими «порциями», например, по нескольку десятков или сотен страниц в день. Размер этой порции на профессиональном сленге специалистов по продвижению и называется краулинговым бюджетом.

По сути, бюджет – это то количество страниц сайта, которое обновится в базе поисковика за определенный период. Чем больше бюджет, тем лучше, так как при большом бюджете можно быть уверенным, что все изменения на сайте быстро попадут в базу данных поисковика.

Краулинговый бюджет зависит от многих факторов (уровня траста, размера сайта, частоты обновления, тематики, региона) и рассчитывается по специальному алгоритму. Самостоятельно увеличить его на нужную величину довольно сложно.

Поэтому при продвижении сайта стоит обратная задача: вместить в имеющийся бюджет все изменения, которые произошли на сайте. Для этого применяется комплекс мер, от удаления дублей до управления индексацией с помощью служебных файлов. Все эти меры мы последовательно рассмотрим на страницах данной книги.

Остается добавить, что получить представление о краулинговом бюджете для продвигаемого сайта можно с помощью статистики, которую предоставляют поисковые системы в панелях для веб-мастеров, или анализа логов сервера.

В-третьих, из-за ошибок в алгоритмах поисковых систем после очередного обновления поискового индекса дубль может заменить в выдаче целевую страницу. Как правило, после этого позиции сайта в выдаче существенно ухудшаются.

Но даже если этого не произойдет, может возникнуть ряд негативных эффектов: например, падение конверсии[26 - https://ru.wikipedia.org/wiki/KoHBepcHa_(B_HHTepHeT-MapKeTHHre)] и накопление поведенческой статистики на неправильной странице. Целевая страница при этом может вообще пропасть из индекса (в самом деле, зачем держать в базе несколько копий одной и той же страницы?).

В-четвертых, может возникнуть ситуация, когда поисковая система не сможет разобраться, какой из дублей следует считать основным. В этом случае алгоритм понизит обе страницы (и сайт в целом) в результатах выдачи.

Причины возникновения дублей и методы их обнаружения

Причины возникновения дублей могут быть разными:

1. Дубли штатно или по ошибке может генерировать движок сайта. Например, дублями могут быть страница и ее версия для печати, встречаются дубли главной страницы (site.ru и site.ru/index.php) или одинаковые страницы с разными расширениями (.php и. html).

2. Дубли могут возникнуть из-за невнимательности вебмастера (после изменения адреса страницы она становится доступна и по старому, и по новому URL).

3. Дубли могут генерироваться из-за дизайнерских или контентных особенностей проекта (в интернет-магазинах часто похожие товары отличаются лишь очень кратким описанием или несколькими техническими параметрами).

Для обнаружения дубликатов есть множество эффективных инструментов:

1. Панели для веб-мастеров поисковых систем[27 - https://webmaster.yandex.ru/ и https://search.google.com/search-console]. С помощью этих веб-сервисов также можно следить за скачиваемыми страницами и находить дубли.

2. Расширенный поиск в поисковых системах. Для Гугла можно использовать site: имя_хоста[28 - https://support.google.com/websearch/answer/24664337hHru]. В Яндексе можно смотреть индекс по отдельным разделам с помощью url: имя_хоста/категория/*[29 - https://yandex.ru/support/search/query-language/search-operators.xml] (для этого же можно использовать оператор inurl).

3. Специальные сервисы и программы. Например, можно воспользоваться программой XENU[30 - http://home.snafu.de/tilman/xenulink.html], а также некоторыми распространенными веб-сервисами, информацию о которых легко найти в Сети (см. рис. 2 на с. 54).

Устранение дублей может быть сложным и зачастую требует творческого подхода. Однако есть направления, которые однозначно стоит проверить.

Ошибки движка сайта

Разберем типичные ошибки работы движка сайта, которые приводят к появлению дублей:

1. Движок сайта не генерирует 301 редирект при смене адреса страницы (этот редирект либо нельзя поставить вообще, либо нужно ставить в ручном режиме, о чем легко забыть). Данный недостаток легко устранить на программном уровне.

Рис. 2. Результаты сканирования сайта программой XENU: интерфейс безнадежно устарел, но функционал остается полезным при выполнении практических задач

2. Движок отображает один и тот же контент по разным адресам:

a. Разные страницы могут возникать при перестановке частей URL-адреса. Например, одинаковый контент выводится на страницах site.ru/cars/volvo и site.ru/volvo/cars.

b. Отображение страницы происходит при частичном вводе адреса, например по URL site.ru/sumki/cristina-agilera и site.ru/sumki/cristina.

c. Одна и та же страница может отображаться в разных категориях. Особенно это актуально для карточек товаров в интернет-магазине: site.ru/moto/sc-234 и site. ru/moto-s-pricepom/sc-234. Проще всего решить эту проблему, присвоив каждой карточке раз и навсегда свой уникальный адрес.

3. Движок сайта может генерировать сессионные переменные в адресе страниц. Ниже мы разберемся с этим вопросом подробнее.

Сессия – промежуток времени, в течение которого пользователь находился на сайте[31 - https://seopult.ru/library/CeccHGHHbie_nepeMeHHbie]. Когда пользователь заходит на сайт, последний с помощью cookies[32 - https://ru.wikipedia.org/wiki/Cookie] браузера его идентифицирует. Это необходимо, чтобы понять, кто этот посетитель, и помочь ему пользоваться сайтом. Например, если при авторизации пользователь поставил галочку «Запомнить меня», то при следующем заходе на сайт он сразу будет залогинен.

Но бывает, что cookies у пользователя отключены. В таком случае возможны три варианта:

– сайт будет работать, как обычно;

– сайт не сможет работать полноценно и выдаст сообщение, что для нормальной работы нужно включить cookies;

– движок сайта постарается компенсировать отсутствие cookies с помощью так называемых сессионных переменных (уникальных идентификаторов, которые будут добавляться к URL тех страниц, на которых побывал пользователь).

Последний подход создает дополнительные проблемы для поисковых систем. Их роботы приходят на сайт, видят новые URL с сессионными переменными и индексируют их. В результате в поисковую базу попадают полные дубликаты уже существующих страниц.

Конечно, поисковые системы отфильтровывают большинство таких страниц, но эта ситуация негативно влияет на индексацию и ранжирование сайта. Если движок сайта генерирует сессионные переменные, необходимо этот механизм отключить.

301 редирект

В основном 301 переадресацию[33 - https://support.google.com/webmasters/answer/936337hUru] (жарг. «301 редирект») используют при смене URL-страницы, но эта технология пригодится и для борьбы с дублями.

Дело в том, что код статуса 301 означает, что запрашиваемая страница окончательно перемещена в новое местоположение. А поэтому, если настроить 301 редирект с дубля на основной документ, дубль пропадет из поисковой базы.

Необходимо настроить постраничный 301 редирект:

1. C домена без «www» на домен с «www» (или наоборот, в зависимости от того, какой вариант лучше проиндексирован поисковиками, накопленной ссылочной массой и индивидуальных предпочтений).

2. Со страниц без слэша («/») на конце адреса на страницы со слэшем (или наоборот, в зависимости от особенностей сервера и собственных предпочтений). Отметим, что адреса без косой черты на конце предпочтительнее, так как косая черта ассоциируется с каталогом, а не с конечной страницей на сайте.