Создание сайтов и веб ресурсов
Коммерческое предложение
SEO раскрутка сайтов поддержка сайтов

Содержание
Оглавление

    Это документ, который сообщает поисковым системам о страницах сайта, доступных для индексации. Этот файл представляет собой ХМL-файл, в котором перечислены URL-адреса страниц сайта в сочетании с метаданными, связанными с каждым URL-адресом (дата его последнего изменения, частота изменений, его приоритетность в рамках сайта), чтобы поисковые системы могли оптимизировать процесс индексации сайта.

    Если основное предназначение robots.txt — это запрет индексации, то карта сайта sitemap.xml выполняет прямо противоположные задачи. Она отвечает за ускорение и полноту индексации сайта.

    Карта сайта должна включать в себя ссылки только на значимые страницы сайта, содержащие уникальный контент.

    Sitemap может указывать поисковой системе частоту, с которой возникает необходимость в переиндексации страниц. В этом плане инструкция особенно важна для сайтов с регулярно обновляющимся контентом (новостные порталы и т.п)

    Создавая файл Sitemap, вы сообщаете поисковым системам, какие из ваших URL следует выбирать для показа в результатах поиска.  Такие URL называются каноническими.
    Если вы разместили одинаковый контент по нескольким URL, выберите основной вариант страницы и включите в файл Sitemap только его.

    Файл Sitemap можно сгенерировать с помощью системы управления контентом.

    Например, во многих CMS существуют десятки плагинов для генерации xml-карт сайта.

    Любой файл Sitemap размером больше 50 МБ необходимо разделить. Несколько файлов Sitemap можно отправить одновременно, объединив их с помощью файла индекса Sitemap. Это файл в формате XML, который по структуре очень похож на обычный файл Sitemap.

    Инструкции sitemap.xml и robots.txt при правильном их использовании должны дополнять друг друга. 

    Существуют три важнейших правила взаимодействия этих инструкций:

    Эта проблема возникает, когда сайтмап генерируется не динамически, а эпизодически, запуском какой-то службы в CMS, а то и сторонними сервисами. При этом возникает масса мертвых страниц, отдающих 404 ошибку (например, страницу физически удалили или перенесли в другое место, изменив адрес URL).
    Кроме того, новые страницы индексируются значительно медленнее, ибо не находятся в sitemap.xml.

    Эта ошибка возникает, как правило, на «самописных» CMS или при использовании неверных плагинов к популярной CMS. Вот верная структура https://www.sitemaps.org/ru/protocol.html

    Модификация этой ошибки - неверная работа с датой изменения записи - поле . Необходимо или вовсе не использовать её (что плохо), либо ставить дату последнего значимого изменения страницы, например, когда поменялась цена или товар закончился или изменилось описание. Никак нельзя выставлять одинаковую дату изменения у всех записей — это грубейшая ошибка, вводящая в ступор краулер ПС.  Сайт может быть наказан снижением квоты на краулинг, при этом новые страницы будут попадать в индекс спустя недели после их появления.

    Они вызваны нарушением трех правил о сочетании sitemap.xml и robots.txt. Обязательно добавляйте сайтмапы в вебмастера и проверяйте их на серьезные ошибки.

    - Карта сайта может описывать только страницы того домена, на котором он расположен.
    - Перед загрузкой файла на сайт рекомендуется проверять его корректность с помощью валидаторов файлов sitemap, расположенного в Яндекс Вебмастере и Google Search Console
    - Карта сайта должна автоматически обновляться при добавлении / удалении страниц с сайта и учитывать все требования Яндекса и Google к картам.

    Важная фишка

    Есть SEO прием, когда для крупных сайтов с миллионами страниц, в sitemap.xml добавляют только не проиндексированные или измененные значимые страницы, удаляя из нее страницы, которые уже проиндексировались.

    Если у Вас самописная CMS, не генерирующая автоматически данный файл, то можно воспользоваться сервисам, которых довольно много в интернете.