Бесплатно · 18 проверок · Google + Яндекс

robots.txt валидатор
18 проверок Google и Яндекса

Введите домен — мы загрузим /robots.txt и прогоним 18 проверок: BOM, закрытие сайта от ботов, блокировку CSS/JS, ошибки в Sitemap, устаревшие директивы, опечатки, кириллицу без percent-encoding и ещё 11 проблем.

Загрузка с любого домена 18 проверок по 3 уровням Подсветка проблемных строк Конкретные рекомендации

Введите адрес сайта — мы загрузим /robots.txt и проанализируем.

0 символов

Можно вставить содержимое вручную — без обращения к домену.

Примеры:

Отчёт

Введите URL или вставьте содержимое robots.txt — отчёт появится здесь.

Что мы проверяем

Все правила собраны из официальной документации Google и Яндекса, плюс типичные ошибки из живых аудитов.

01BOM в начале файла
02Disallow: / без условий
03блокировка CSS/JS-ассетов
04orphan-директивы без User-agent
05неизвестные директивы и опечатки
06устаревшие Host: и Noindex:
07Sitemap без полного URL
08Sitemap на чужом домене
09wildcard-ошибки (** и $-misuse)
10кириллица не в percent-encoding
11путь без слеша в начале
12Crawl-delay для Googlebot (игнорируется)
13дубли User-agent
14inline-комментарии
15путь в верхнем регистре
16пустые группы
17размер файла > 500 KB
18битые строки без двоеточия
Уровень
Критично

SEO-поломка: сайт закрыт от ботов, заблокированы CSS/JS, BOM ломает первую группу. Исправлять в первую очередь.

Уровень
Предупреждение

Проблема, которую заметят поисковики: неполный URL Sitemap, кириллица без encoding, опечатка в имени директивы. Исправить в течение недели.

Уровень
Совет

Best practice: добавить Sitemap, убрать устаревший Host:, объединить дубли User-agent. Не блокирует индексацию, но качество файла страдает.

проверка сайта

robots.txt — это только верхушка

На сайте может быть настроен идеальный robots.txt и при этом валиться индексация: некорректный canonical, дубли title, сломанный hreflang, неотвечающие 4xx/5xx. Запустите полный SEO-аудит — за 30 секунд проверим всё, не только robots.txt.