(Последнее обновление: 29.05.2019)

Здравствуйте, друзья! Хотите получить хорошую позицию в выдаче поисковых систем? Тогда  вам нужно подойти более ответственно к вашему SEO. А я вам помогу. Сегодня мы с вами рассмотрим  - самые распространённые SEO-ошибки сайтов на WordPress.  Использование движка WordPress даёт вам большое преимущество. В популярной CMS есть все базовые возможности для правильной настройки SEO. Используйте их.

Самые распространённые SEO-ошибки веб-сайтов на Вордпресс

Ошибки SEO начинающих блогеров в оптимизации сайтов

WordPress по праву считается одной из самых SEO-дружественных платформ для создания сайта: она имеет ряд функций и характеристик, которые помогают адаптировать ресурс согласно рекомендациям поисковых систем даже без помощи разработчиков. Однако далеко не все владельцы оптимизируют свои сайты под SEO, из-за чего пробиться в ТОП-10 выдачи и выдержать конкуренцию очень сложно. Вебмастера допускают следующие SEO-ошибки на своих сайтах.

SEO-ошибки на сайтах WordPress

В этой статье мы разберём самые частые SEO-ошибки и упущения начинающих блогеров в оптимизации сайтов.

Не оптимизированные URL-адреса

Автоматическая генерация URL в WordPress облегчает работу и позволяет экономить время. Но не правильно настроив генерацию, вы рискуете получить множество нелогичных адресов, состоящих из беспорядочного набора символов. Такие URL являются не информативными и затрудняют навигацию, а это, в свою очередь, отрицательно влияет на поведенческие факторы. К тому же оптимизированные URL давно стали одним из факторов ранжирования большинства поисковых систем.

Чтобы ваши URL были читабельными, настройте генерацию URL по названию постов. Для этого в разделе "Настройки" → "Постоянные ссылки" отметьте пункт "Название записи".

WordPress даёт возможность указать для постоянных ссылок собственную структуру

Настройки постоянных ссылок

Оптимизировать URL необходимо сразу после установи Вордпресс. Но даже после этой настройки проверяйте каждый URL на уникальность (в рамках сайта) и соответствие ЧПУ.

По возможности укорачивайте URL — так они выглядят привлекательнее, за счёт чего могут способствовать повышению рейтинга кликов. Желательно также, чтобы при этом в URL содержалось ключевое слово.

Важно: если вы используете форматы ссылок "день и название" или "месяц и название" более полугода, не меняйте в настройках структуру постоянных ссылок, так как это может спровоцировать снижение рейтинга.

Отсутствие или неправильная настройка файла robots.txt

Для корректной и быстрой индексации сайта поисковыми роботами очень важно правильно настроить файл robots.txt и следить, чтобы в нём не было допущено ошибок, особенно:

  • ошибок в синтаксисе;
  • ошибок в директивах;
  • закрытие доступа к сканированию важной части контента сайта;
  • блокировки файлов изображений и CSS.

Чтобы избежать ошибок в написании директив и синтаксиса, ознакомьтесь со справкой Google  и Яндекс, где подробно описана специфика файла. А плагины WP Robots Txt и Yoast SEO помогут вам в быстрой и автоматической генерации файла robots.txt.

Проверить, какие страницы закрыты или открыты в уже существующем robots.txt, вы можете с помощью специальных программ. Например, краулера Netpeak Spider. Из главного окна программы перейдите в "Настройки" → "Продвинутые". В разделе "Учитывать инструкции по сканированию и индексации" отметьте пункт "Robots.txt".

Проверить, какие страницы закрыты или открыты в уже существующем robots.txt

Проверка robots txt

Сохраните настройки. На боковой панели на вкладке "Параметры" отметьте "Разрешён в robots.txt".

Отсутствие или неправильная настройка файла robots.txt

Сканирование и индексация robots txt

Вставьте главный домен сайта в верхнюю строку и нажмите "Старт".

По завершении сканирования в окне "Все результаты" ознакомьтесь с колонкой "Разрешён в robots.txt", где значение TRUE означает, что страница открыта к индексации, а FALSE — закрыта.

По завершении сканирования ознакомьтесь в окне Все результаты

Разрешён в robots.txt

Также закрытые от индексации и сканирования страницы попадут во вкладку "Пропущенные URL".

Заблокирован с помощью виртуального роботс.тхт

Пропущенные URL

Отсутствие XML-карты сайта

Ухудшение индексации может быть вызвано не только ошибками в файле robots,txt, но также отсутствием XML-карты сайта.

XML-карта сайта (файл Sitemap) - это документ, который сообщает поисковым системам о страницах сайта, доступных для индексации.

C автоматическим созданием файла XML Sitemap отлично справляется WordPress плагин Google Sitemap Generator.

Настройка карты сайта XML для Вордпресс

Генератор XML-карты сайта для WordPress

Также для создание XML карты сайта можно использовать SEO плагин Yoast SEO или All in One SEO Pack.

Не оптимизированные мета-теги

Мета-тег Description и тег Title очень важны для сайта, так как именно их видит пользователь в результатах выдачи, когда ищет нужную информацию.

Description - Предназначен для предоставления поисковым системам краткого описания содержимого страницы для индексации и вывода сопроводительной информации в выдаче результатов поиска.

Заголовок (Title) - это один из самых важных факторов оптимизации страницы. Именно заголовок первым видит посетитель поисковой системы в  органической выдаче. Именно Title он первым оценивает и принимает решение перейти или нет на ваш сайт.

Метатег Description и тег Title очень важны для сайта

Тег Title и метатег Description

Для настройки тегов Title и мета описания воспользуйтесь плагином WordPress Yoast SEO. Но перед этим ознакомьтесь с требованиями по их составлению, так как неправильно составленные Title и Description могут навредить продвижению сайта.

Как правильно составить Title

  • коротко и понятно передать в нём содержимое страницы;
  • стараться не превышать длину в 70 символов (с пробелами);
  • включить минимум один высокочастотный запрос;
  • сделать его уникальным для каждой отдельной страницы.

Как составить правильный Meta Description

  • придерживаться оптимальной длины — от 60 до 320 символов;
  • сделать его уникальным для каждой страницы;
  • добавить ключевое слово.

Сделать проверку Title и мета описания страниц на сайте вы можете также в краулере Netpeak Spider, который определяет:

  • дубликаты Title и Description;
  • страницы, где нет Title и Description;
  • слишком короткие или слишком длинные Title и Description.

Как проверить:

  1. На вкладке "Параметры" боковой панели программы в разделе "Head теги" отметьте нужные параметры.
  2. Запустите сканирование.
  3. После его окончания на боковой панели ознакомьтесь с найденными ошибками.
Неправильно составленные Title и Description могут навредить продвижению сайта

Ознакомьтесь с найденными ошибками Title и Description

Не оптимизированные изображения

Изображения положительно влияют на восприятие контента и способствуют притоку дополнительно трафика. И чтобы изображения не утяжеляли страницу (скорость загрузки сайта) и хорошо ранжировались в поиске, их необходимо оптимизировать.

Изображения - это именно те ресурсы, которые занимают много места на странице и весят больше всего. Благодаря их оптимизации мы можем
значительно уменьшить количество скачиваемых данных и улучшить работу сайта.

Для изображений следующие требования:

  • Задайте единый размер изображений для всего сайта и придерживайтесь его.
  • Сжимайте изображения с помощью программ или специальных сервисов (Compressor, TinyJPG, TinyPNG, ImageOptim), чтобы ускорить загрузку страницы.
  • Прописывайте атрибут ALT. С его помощью поисковым роботам будет проще определить содержимое изображения, а пользователям — найти его в поиске по картинкам.
  • Давайте понятные и читабельные названия файлам изображений.

Отсутствие внутренних ссылок (Внутренняя перелинковка)

Внутренние ссылки на страницах облегчают навигацию, передают вес, тем самым помогая улучшить продвижение страниц.

Перелинковкой сайта (от английского "link") называют связывание страниц одного сайта или разных ресурсов гиперссылками.

Количество ссылок с других страниц сайта говорит поисковым системам, насколько данная страница ценна, по сравнению с иными страницами. А использование анкорных ссылок показывает, как минимум, тематику страницы - акцептора, переносят на нее релевантность. Поэтому, контекстные ссылки из текста страницы более ценны для ПС, чем ссылки из меню.

И как обычно, важны не только слова запроса, но и их синонимы.  Разместить внутренние контекстные ссылки в WordPress очень просто:

  1. В текстовом редакторе выделите слово или фразу, которая будет служить анкором.
  2. Затем нажмите на иконку "Вставить ссылку".
Внутренние ссылки на страницах сайта Вордпресс

Размещение внутренних контекстных ссылок в WordPress

3. Укажите URL страницы, на которую вы будете ссылаться.
4. Открыв настройки, вы можете воспользоваться поиском, чтобы найти релевантные страницы. После того, как вы указали URL, нажмите "Добавить ссылку".

Укажите URL страницы, на которую вы будете ссылаться

Добавить ссылку

При проставлении внутренних ссылок важно учитывать следующие моменты:

  • Анкор должен передавать тематику страницы, на которую вы ссылаетесь.
  • Ссылка должна вести на работающую страницу и содержать релевантный контент.
  • Ссылаться можно на определённую страницу только один раз в рамках конкретной статьи.

Найти страницы, на которых нет исходящих внутренних ссылок, вы можете в Netpeak Spider. Для этого:

  1. Отметьте пункт "Ссылки" в разделе параметры.
Найти страницы, на которых нет исходящих внутренних ссылок, можно в Netpeak Spider

Отметьте пункт Ссылки в разделе параметры

2. Просканируйте сайт.
3. В отчёте "Ошибки" обратите внимание на наличие ошибок "PageRank: отсутствуют связи" и "PageRank: отсутствуют исходящие ссылки".

Кликните на каждую, чтобы ознакомиться со списком URL, которые не содержат внутренних ссылок.

Отсутствие внутренних ссылок

Кликните на каждую, чтобы ознакомиться со списком URL

Попадание неважных для продвижения страниц в индекс

Иногда страницы, не участвующие в продвижении, например, страницы в процессе разработки или страницы печати, попадают в поисковую выдачу. Это происходит потому, что у роботов поисковых систем есть к ним доступ. Удалить страницы из индекса можно с помощью специальных инструментов Яндекс и Google.

Чтобы впредь такие страницы не попадали в выдачу, закройте роботам доступ с помощью Meta Robots или HTTP-заголовка X-Robots-Tag. Узнать, как правильно это сделать, вы можете на основе информации в справках поисковых систем: Google и Яндекс.

Игнорирование мусорных страниц

В предыдущем пункте речь шла о страницах, имеющих определённую ценность, но появление которых в индексе и поисковой выдаче нежелательно. Но, на сайте могут появляться и бесполезные, так называемые, «мусорные» страницы: дубликаты, битые страницы и пустые страницы без контента.

Чтобы проверить, есть ли такие страницы на вашем сайте, вы можете воспользоваться:

1. Сервисом Google Search Console.

Игнорирование мусорных страниц на сайте

Сервис Google Search Console

2. Сервисом Яндекс.Вебмастер.

Проверка мусорных страниц

Яндекс.Вебмастер

3. Краулером Netpeak Spider.

Ищем дубликаты, битые и пустые страницы без контента

Ищем проблемные страницы

Если на сайте были обнаружены проблемные страницы, от них необходимо избавиться.

Дубликаты вы можете устранить такими способами:

  • настроить редирект на основную страницу;
  • удалить страницу и настроить 404 код ответа сервера, но предварительно снять все ссылки, которые вели на эту страницу;
  • с помощью тега rel="canonical" указать URL основной страницы, которой стоит передавать ссылочный вес.

Чтобы избавиться от битых страниц, удалите все ссылки, которые вели на них и займитесь красивым оформлением страницы 404, чтобы минимизировать показатель отказов.

Пустые же страницы можно наполнить качественным контентом или закрыть от индексации.

Не адаптированный под мобильные устройства сайт

Мобильная версия сайта давно стала необходимостью для каждого веб-ресурса, это объясняется просто: число пользователей, предпочитающих выходить в интернет через телефоны и планшеты, растёт с каждым годом. В связи с этим наличие мобильной версии является одним из самых актуальных факторов ранжирования.

Для сайтов на WordPress уже есть несколько плагинов, с помощью которых это можно реализовать быстро и легко: JetPack, WPTouch, WordPress Mobile Pack, Wiziapp, WP Mobile Detector.

В заключение

Каждый владелец сайта заинтересован в том, чтобы его ресурс появлялся в результатах выдачи. Но далеко не каждый исправляет ошибки на нём, а ведь именно они могут мешать продвижению. Чаще всего на сайтах встречаются такие SEO-ошибки:

  1. Неструктурированные URL-адреса;
  2. Отсутствие или неправильная настройка файла robots.txt;
  3. Отсутствие XML-карты;
  4. Не оптимизированные мета-теги;
  5. Не оптимизированные изображения;
  6. Отсутствие внутренних ссылок;
  7. Попадание неважных для продвижения страниц в индекс;
  8. Игнорирование мусорных страниц;
  9. Сайт не адаптированный под мобильные устройства.

Несмотря на то, что представленные SEO-ошибки могут нести серьёзную опасность сайту, их легко выявить и устранить. Это можно сделать с помощью специальных сервисов, плагинов и программ.

Всего доброго, друзья. До новых встреч. Удачи.