В своём недавнем обращении к вебмастерам небезызвестный персонаж Яндекса Платон Щукин дал несколько ответов на самые распространённые вопросы о том, как же лучше оптимизировать интернет-магазины для наиболее успешной индексации поисковыми роботами.
1. Первое и главное, что следует усвоить специалистам: наличие ЧПУ-адреса на сайте совершенно безразлично роботу, однако может стать важным ориентиром для потенциальных клиентов.
2. Что касается работы со страницами пагинации и сортировки товаров, то дело здесь обстоит следующим образом: страницы пагинации, на которых собраны все товары данной категории, можно создавать при наличии в категории слишком большого числа товаров.
Ну а чтобы не случилось дублирования контента, неканонические страницы в поиск можно не добавлять. Ссылки на товары с этих страниц всё равно будут известны роботу.
Ещё один тонкий момент связан с тем, что нередко вместо пагинации не сайте внедрена динамическая прокрутка. Реализуется она обычно с помощью javascript. В этом случае важно убедиться, что индексирующему роботу отдается всё содержимое с подобных страниц. Сделать это можно при помощи специального инструмента в Яндекс Вебмастере или же открыть для робота статическую пагинацию товаров.
Если говорить о страницах сортировки (по цене, популярности), то здесь важно убедиться, что все подобные страницы на сайте полно и точно отвечают пользовательским запросам. В противном случае такие страницы Платон рекомендует закрывать от индексации, используя соответствующие правила в robots.txt. Помните: индексирующий робот должен видеть лишь страницы, достойные его внимания!
3. Если один и тот же товар логично разместить в нескольких категориях, к примеру «ромашки» могут попасть как в категорию «Полевые цветы», так и в категорию «Необычные цветы», то для всех таких ситуаций имеет смысл применять атрибут rel="canonical" тега <link>. Используя его, можно указать канонический адрес, который будет индексироваться и показываться впоследствии в результатах поиска. Такая мера даст возможность избежать дублирования, а SEO-специалист будет знать наверняка, какая страница его сайта должна находиться по запросам.
4. Для всех случаев, когда один и тот же товар продается в интернет-магазине «в различном исполнении», целесообразно сделать выбор характеристик без изменения URL-адреса с динамическим обновлением контента на странице. К примеру, при изменении цвета товара его изображение на странице тоже будет меняться. Однако случается и такое, что реализовать подобный функционал на сайте попросту невозможно технически.
В данной ситуации Платон советует задуматься, все ли страницы с вариантами товара будут нужны в поиске. Быть может, будет достаточно лишь одной версии страницы? Если важны абсолютно все страницы, то на них есть смысл добавить отзывы покупателей, комментарии или обсуждения, рекомендуемые к просмотру товары и т.п. Если же важной остается лишь одна страница, то лучше применить к остальным атрибут rel="canonical". В качестве канонического адреса лучше выбрать самую популярную модификацию товара.
5. Не редки ситуации, когда товар попросту закончился на складе, однако в ближайшем будущем ожидается его поступление. В таких ситуациях страницу лучше не прятать от робота, возвращая ему HTTP-код ответа 200. Это позволит избежать выпадения страницы из результатов поиска.
Ну, а чтобы интерес пользователей к такой странице не угасал, Платон советует выводить на ней сообщение о скором поступлении товара на склад, возможность предзаказа, или просто-напросто рекомендовать похожие товары в наличии. Если же всё плохо, и товар не поступает на склад довольно длительное время, лучше настроить код ответа сервера 404. Саму страницу «заглушки» лучше дополнительно разнообразить интересной и полезной информацией для привлечения внимания пользователей.
6. Наконец, в robots.txt обязательно нужно закрывать:
- Страницы действий, такие как: добавление товара в корзину, сравнение товаров.
- Корзины с товарами.
- Поиск по сайту.
- Служебные каталоги с конфиденциальной документацией магазина.
- Идентификаторы сессии, utm-метки с помощью директивы "Clean-param".
Дополнительно в robots.txt, по версии Яндекса, следует указать:
- Директиву Host, содержащую адрес главного зеркала сайта.
- Директиву Sitemap, содержащую адрес актуального файла sitemap.
Проследить за обсуждением темы и узнать дополнительные подробности можно в блоге Платона Щукина.