Пять способов держать Google под контролем

Чтобы улучшить свой рейтинг в Google, полезно понимать, как работает Google. Google рассылает своих маленьких ботов по всему Интернету для обхода страниц и получения представления о том, о чем сайт. Именно таким образом вы можете в конечном итоге сообщить Google о содержимом вашего сайта, и, надеюсь, он сочтет его достаточно полезным, чтобы поставить его выше конкурентов.

После обхода сайта страницы индексируются. Это означает, что они могут отображаться в результатах поиска. Просмотренные, но не проиндексированные страницы в конечном итоге становятся известными Google, но не отображаются в результатах поиска.

Звучит так, как будто это абсолютно пассивно, и Google полностью контролирует процесс. Факт в том, что это неправда. Вы действительно можете помочь Google и себе, взяв на себя больше работы. Есть несколько вещей, которые можно сделать с вашей стороны, чтобы убедиться, что Google действительно знает, о чем ваш сайт.

В этой статье я расскажу о пяти способах, которыми вы можете взять управление в свои руки и помочь Google помочь вашему сайту.

Robots.txt

В вашем коде есть раздел, который по сути представляет собой список инструкций. Это называется robots.txt и это говорит ботам, что делать, когда они попадают на ваш сайт. Дело в том, что вы не хотите, чтобы просматривалась каждая страница, публикация или категория на вашем сайте, чтобы они не конкурировали с некоторыми ключевыми словами на более важных страницах.

Благодаря этому, реализованному на вашем сайте, будут просматриваться только нужные страницы. Боты будут передавать определенные URL-адреса на вашем сайте в соответствии с инструкциями на вашемrobots.txt руководство. Существует проблема с дублированием контента на разных страницах, которая может сбить Google с толку и привести к тому, что неправильная страница получит рейтинг выше той, которую вы хотели. Robots.txt поможет вам предотвратить это.

Другим примером может служить страница администратора, которая не предназначена для публичного просмотра. Google может сканировать и индексировать эту страницу без инструкций не делать этого.

В итоге вы получите сайт, который сохраняет свою авторитетность и позволяет Google оценивать его соответствующим образом. Другой вопрос — бюджет обхода, который есть у Google. Сканирование каждой страницы в Интернете в поисках нового контента стоит денег. Если вы можете ограничить объем использования Google из этого бюджета, это сделает их счастливыми.

Директивы роботов

Даже среди страниц, по которым вы хотите, чтобы их просматривали, должен быть определенный набор инструкций, чтобы Google понимал, как следует обращаться с этим контентом. Это делается с помощью опции «канонический URL» или «неканонический». Но для Google этого не всегда достаточно.

Более эффективный способ добиться этого — использовать директивы robots. Таким образом, страницы доступны для посетителей, но в то же время они не индексируются.

Примером может быть, когда у вас есть несколько целевых страниц, на которые приходят посетители, когда вы показываете рекламу. Каждая целевая страница будет отличаться в зависимости от рекламной кампании, но контент на страницах будет в основном одинаковым с небольшими вариациями. Если вы не будете осторожны, это может привести к дублированию контента. С директивой robots вы можете быть уверены, что у вас не возникнет этой проблемы.

Вы также сможете использовать это, чтобы предотвратить передачу полномочий другим страницам, которые вы не хотите ранжировать. Обычно это делается с помощью квалификатора nofollow, но сам по себе он не работает.

Канонические URL-адреса

Канонический URL- это страница, которая является авторитетной для определенного ключевого слова. Чтобы Google знал, что именно на эту страницу следует обратить внимание, у нее должен быть правильный атрибут. Это атрибут canonical URL.

Вы даже можете настроить одинаковый режим для нескольких страниц, если все они имеют отношение друг к другу, чтобы Google понимал, на чем вы хотите, чтобы посетитель сосредоточился. Эти страницы могут ссылаться друг на друга, поэтому в центре внимания оказывается целевой URL.

Примером может быть, когда у вас есть товар в интернет-магазине, который представлен в разных категориях. Целевой URL-адрес должен находиться в категории, которая служит основной для целей Google. А затем другие могут обслуживаться с помощью канонической атрибуции, чтобы Google понимал разницу.

Атрибут Hreflang

Таргетинг на правильную географическую область необходим для многих веб-сайтов. Если у вас есть продукт, который поставляется только в определенную область, то бесполезно ранжировать его по ключевому слову в другой области. Или, если вы хотите обеспечить максимальный доход от рекламы в своем блоге, это поможет настроить таргетинг на посетителей из областей с высокой посещаемостью.

Для этого вам нужно использовать атрибут hreflang. Это укажет Google, какой язык используется, чтобы посетитель чувствовал себя более комфортно, когда результат возвращается на его языке.

Это может даже помочь предотвратить проблемы с дублированием контента при использовании переведенного текста с другой страницы вашего сайта.

Атрибуты разбивки на страницы

Чтобы убедиться, что Google понимает актуальность вашего сайта и передаст полномочия другим публикациям, у вас должен быть атрибут разбивки на страницы при наличии архива. Это когда разные разделы вашего сайта сгруппированы вместе, чтобы Google понимал их важность.

Поскольку ссылка приведет пользователя на следующую страницу архива, Google также перейдет по ней и передаст часть полномочий на следующую страницу. После обхода всех этих страниц это может дать более полное представление о том, что делает ваш сайт, и соответственно повысит его рейтинг.

Заключение

Теперь вы можете понять, что у вас есть некоторый контроль над Google и вы не всегда находитесь в их власти. Ваш рейтинг также улучшится, как только вы возьмете дело в свои руки.