Google снова удивил всех нас неожиданным поступком. Дело в том, что буквально на днях лидер поиска через Search Console уведомил огромное количество владельцев сайтов и оптимизаторов о том, что файлы CSS и JS, имеющиеся на сайте, не доступны для сканирования его роботу. В результате, гуглеры уличили несметное количество сайтов в блокировке CSS и JS в файле robots.txt.
Тревожные уведомления настигли не только зарубежных, но и отечественных коллег. Как сообщили позднее сами представители Google, количество владельцев аккаунтов в Search Console, получивших «письма счастья» во всем мире приблизилось к 65%.
Отдельные специалисты утверждали, что письма приходили даже на сайты, в принципе не имевшие файла robots.txt, предполагая, что Google по ошибке учёл сторонние файлы, закрытые в robots.txt. Однако в поисковике сразу же опровергли подобные домыслы:
Чтобы избежать подобных проблем в дальнейшем, специалисты из Google рекомендуют создать простейшее правило для всех файлов в robots.txt:
User-agent: Googlebot
Allow: /*.js
Allow: /*.css
К слову, Google уже не раз сообщал, что блокировка файлов CSS или javascript может иметь крайне негативные последствия: а именно, далеко не лучшим образом отразиться на индексации и ранжировании страниц сайтов в поисковике.
Чтобы посмотреть на страницу своего сайта глазами поискового робота Googlebot представители поисковика настоятельно рекомендуют воспользоваться инструментом «Просмотреть как Googlebot». Отыскать его можно в разделе «Сканирование» всё в том же инструменте Search Console.