EN UK RU
🤖 SEO Tool · Лимит Google 2 МБ

Проверьте сайт на соответствие
лимиту Google в 2 МБ

Googlebot не индексирует страницы и ресурсы тяжелее 2 МБ. Введите URL — инструмент проанализирует размер документа, каждый CSS и JS файл, доступность для бота и многое другое.

Что проверяет инструмент

Полный аудит за секунды — без регистрации и установки

📄

Размер HTML-документа

Googlebot загружает и обрабатывает только первые 2 МБ HTML. Всё что после — игнорируется. Особенно критично для страниц с inline-данными или большими JSON-LD блоками.

🎨

CSS и JS файлы

Каждый подключаемый файл стилей и скриптов также имеет лимит в 2 МБ. Тяжёлые бандлы не только замедляют загрузку, но и ограничивают индексирование.

🤖

Доступность для Googlebot

Проверяем robots.txt, заголовки X-Robots-Tag и мета-тег robots. Страница может быть открыта для пользователей, но закрыта для бота одновременно.

Сжатие и кэширование

gzip/brotli сжатие уменьшает передаваемый размер в 3–10 раз. Без сжатия файл на 900 КБ может превышать лимит. Cache-Control предотвращает повторные загрузки.

🔒

Заголовки безопасности

Аудит HSTS, CSP, X-Frame-Options и других заголовков. Влияют на безопасность пользователей и сигналы Page Experience в Chrome.

🗺️

robots.txt и Sitemap

Анализируем файл robots.txt: заблокирован ли Googlebot, есть ли ссылки на sitemap, какие правила применяются к данному URL.

Частые вопросы

Всё о лимите 2 МБ и индексировании

Почему Google установил лимит именно в 2 МБ?
Google официально документирует лимит в 15 МБ для скачивания, но индексируется только первые 2 МБ HTML-контента. Это ограничение существует, чтобы Googlebot мог эффективно обходить миллиарды страниц.
Размер 2 МБ — это до или после сжатия?
Лимит применяется к размеру контента после распаковки. Если ваш HTML весит 600 КБ gzip, но разворачивается в 2.5 МБ — последняя часть не будет проиндексирована. Инструмент всегда показывает реальный размер.
Что будет, если JS-файл превышает 2 МБ?
Googlebot не выполнит весь скрипт. Если контент рендерится через JavaScript (SPA), бот не увидит часть страницы. Особенно критично для интернет-магазинов и новостных сайтов. Используйте code splitting и SSR/SSG.
Как включить gzip/brotli сжатие?
Nginx: gzip on; gzip_types text/css application/javascript;
Apache: включите mod_deflate и mod_brotli.
Cloudflare: сжатие включено по умолчанию для всего трафика.
Node.js / Express: используйте пакет compression.
Страница возвращает 200, но доступность для Googlebot — ошибка?
Некоторые серверы определяют User-Agent и блокируют ботов через 403/503 или отдают пустой контент. Также блокировка может быть через Cloudflare Bot Fight Mode, Fail2Ban или WAF-правила. Проверьте настройки фаервола и защиты от ботов.
Влияет ли размер файлов на Core Web Vitals?
Напрямую — нет. Но большой JS-файл увеличивает время парсинга и выполнения, что ухудшает LCP и TBT. Большой CSS блокирует рендеринг. Оба показателя входят в Page Experience signals для ранжирования.
💼

Нужен SEO-аудит, разработка сайта или кастомный инструмент?

Агентство Ivatech создаёт высокопроизводительные веб-продукты и SEO-решения. Открыты для новых проектов на Upwork.

Сотрудничать с Ivatech на Upwork