Работа по закрытию от индексации части страниц сайта всегда вызывала массу трудностей и споров не только в среде молодых оптимизаторов, но и среди более опытных специалистов. Масла в огонь подлило очередное заявление представителя Google Джона Мюллера (John Mueller), который на днях сообщил о том, что на месте оптимизаторов не стал бы закрывать страницу в robots.txt, если на ней уже присутствует метатег noindex.
Если быть точным, то заявление стало ответом на твит зарубежного специалиста, который, делясь собственным опытом, сообщал о том, что сегодня нет смысла отдельно прописывать директиву Disallow в файле robots.txt, если уже есть метатег noindex на закрываемой странице.
Оцените статью: