Googlebot не індексує сторінки та ресурси важчі за 2 МБ. Введіть URL — інструмент проаналізує розмір документа, кожен CSS та JS файл, доступність для бота та багато іншого.
Повний аудит за секунди — без реєстрації та встановлення
Googlebot завантажує і обробляє лише перші 2 МБ HTML. Все що далі — ігнорується. Особливо критично для сторінок з вбудованими даними або великими JSON-LD блоками.
Кожен підключений файл стилів і скриптів також має ліміт у 2 МБ. Важкі бандли не лише сповільнюють завантаження, але й обмежують те, скільки Googlebot може розпарсити та відрендерити.
Перевіряємо robots.txt, заголовки X-Robots-Tag і мета-тег robots. Сторінка може бути відкрита для користувачів, але невидима для Google одночасно.
gzip/brotli стиснення зменшує розмір передачі у 3–10 разів. Без нього файл на 900 КБ може перевищувати ліміт. Cache-Control запобігає повторним завантаженням.
Аудит HSTS, CSP, X-Frame-Options та інших заголовків. Впливають на безпеку користувачів і сигнали Page Experience у Chrome.
Аналізуємо файл robots.txt: чи заблокований Googlebot, чи є посилання на sitemap, які правила застосовуються до перевіреного URL.
Все про ліміт 2 МБ та індексування
gzip on; gzip_types text/css application/javascript;compression.
Агентство Ivatech створює високопродуктивні веб-продукти та SEO-рішення. Відкриті до нових проектів на Upwork.
Співпрацювати з Ivatech на Upwork