Як вірно скласти файл robots.txt для сайту
В цьому посту, я не буду нудно розповідати, як важливо правильно налаштувати robots.txt .
Лише прості поради та приклади коду, щоб кожний брав налаштовував на своєму сайті.

Що таке robots.txt і де він розміщується?
Файл robots.txt – це текстовий файл, який потрібно розміщувати у кореневій директорії сайту. Саме з нього пошукові системи починають знайомство з вашим ресурсом. У цьому файлі задаються правила: які сторінки дозволено індексувати, а які – заборонено.
Основні директиви у robots.txt
| Директива | Призначення | Приклад |
|---|---|---|
| User-agent | Вказує, для якого пошукового робота задаються правила. | User-agent: Googlebot |
| Disallow | Забороняє індексацію конкретних сторінок або директорій. | Disallow: /admin/ |
| Allow | Дозволяє індексацію навіть у заборонених розділах. | Allow: /uploads/images/ |
| Host | Вказує головне дзеркало сайту (актуально для Яндекс). | Host: site.com |
| Sitemap | Посилання на карту сайту для швидшої індексації. | Sitemap: https://site.com/sitemap.xml |
| Crawl-delay | Задає паузу між зверненнями бота до сайту. | Crawl-delay: 5 |
Приклад robots.txt для різних CMS
WordPress
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-json/
Disallow: /xmlrpc.php
Disallow: /readme.html
Disallow: /*?
Disallow: /?s=
Allow: /*.css
Allow: /*.js
Sitemap: https://site.com/sitemap.xml
OpenCart
User-agent: *
Disallow: /admin/
Disallow: /system/
Sitemap: https://site.com/sitemap.xml
Shopify
User-agent: *
Disallow: /cart
Disallow: /checkout
Sitemap: https://site.com/sitemap.xml
Що варто забороняти до індексації?
- Дублікати сторінок (наприклад, теги та категорії у блогах).
- Службові розділи сайту:
/admin/,/system/. - Сторінки зі скриптами та технічними файлами.
- Сторінки з великою кількістю зовнішніх посилань.
Типові помилки у robots.txt
- Файл не в кореневій директорії сайту.
- Назва з великої літери:
ROBOTS.TXTзамістьrobots.txt. - Відсутність директиви
DisallowпісляUser-agent. - Дублювання правил без потреби.
- Заборона індексації усього сайту випадково:
User-agent: *
Disallow: /
Висновок
Файл robots.txt – це основа правильної SEO-оптимізації. Він дозволяє контролювати поведінку пошукових систем на сайті, зберегти унікальність контенту та уникнути санкцій за дублікати. Використовуйте прості та чіткі правила, додавайте посилання на Sitemap та уникайте типових помилок.
Більше порад – підписуйтесь на наш Telegram-канал, щоб отримувати нові матеріали першими!
👉 Замовити в мене повну оптимізацію Вашого сайту з гарантією на результат.
Поширені запитання (FAQ)
| Питання | Відповідь |
|---|---|
| Що таке файл robots.txt? | Це текстовий файл, який задає правила індексації для пошукових роботів. Він знаходиться у кореневій директорії сайту. |
| Які директиви використовуються у robots.txt? | Основні директиви: User-agent, Disallow, Allow, Host, Sitemap, Crawl-delay. |
| Які сторінки варто забороняти до індексації? | Дублікати сторінок (категорії, теги), службові директорії (/admin/), технічні файли та сторінки з великою кількістю зовнішніх посилань. |
| Які типові помилки при складанні robots.txt? | Неправильна назва файлу, відсутність директив після User-agent, дублювання правил, випадкова заборона індексації усього сайту. |
Привет всем! Скажите между тегами указывать, что есть robots.txt нужно? Или давать ссылку на robots.txt в теле сайта?
Ничего не нужно, роботы сами знают где его искать.
Это то и страшно, что при создании новичками своих сайтов файл robots.txt “скатывается” без осознания – что он, вообще значит, для чего нужен, и т.д.
Вот теперь нужно подправлять всё, что там неправильно написано (списано).
Лично я не знал, что имя файла не должно содержать заглавных букв.
“Часто допускаемые ошибки: Отсутствие директивы Disallow”
Я правильно понял, что
User-agent: Yandex
User-agent: Googlebot
Disallow:
это правильно, а
User-agent: Yandex
User-agent: Googlebot
без Disallow это неправильно?
Написание
User-agent: Yandex
User-agent: Googlebot
неправильное, и в статье такого нет. Для каждой ПС отдельно пушутся запреты и разрешения.
Примерно вот так нужно написать:
User-agent: Yandex
Disallow:
User-agent: Googlebot
Disallow:
Наконец-то увидела нормальное описание этого файла. Все время пыталась найти, а все повторяют одно и тоже. Обязательно проверю свой, прямо по строчкам – все ли там указано правильно.
А мне вот непонятно, директива Disallow есть, а Allow нет? Как-то нелогично.
Вероятно, это требование протокола. Проще поиск начинать с чего-то одного (Disallow), чем сначала машине делать проверку на Disallow/Allow. Одна операция выигрывается.
“можно встретить, как минимум трижды” – а для чего делать дубли? У Вас страницы по 2-ой и 3-ей ссылке полностью идентичны.
Что плохого, если одна статья будет в полном объеме, а в другом в сокращенном. Как иначе-то? На Главной странице обязательно должена быть краткий анонс новости.
Понял. Не думал, что Главная страница не должна индексироваться.
Вот здесь, Фёдор, у Вас три строки или третья строка – опечатка? И для чего тогда нужна строка Host: site.ru?
User-agent: Googlebot
Disallow:
Host: site.ru
Как программно запретить индексировать сайт помимо трационного в robots.txt:
User-agent: Googlebot
Disallow:/
Говорят, иногда Гугл всё же индексирует сайт, несмотря на запрет.
Здравствуйте, буду благодарна за помощь. Вот мой файл роботс, статьи в гугле появились без проблем, а яндекс исключает их из поиска (смотрю в яндекс.вэбмастер). И пишет Для корректного определения главного зеркала сайта рекомендуется задать соответствующую директиву Host в файлах robots.txt всех зеркал сайта. В случае ее отсутствия главное зеркало может быть выбрано автоматически.
Добавьте директиву Host в файл robots.txt.
User-agent: Mediapartners-Google
Disallow:
User-agent: Yandex
Disallow:
User-agent: *
Disallow: /wp-includes
Disallow: /wp-feed
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Host: stroynostvmode.ru/
Sitemap: //stroynostvmode.ru/sitemap.xml.gz
Sitemap: //stroynostvmode.ru/sitemap.xml
User-agent: Googlebot-Image
Allow: /wp-content/uploads/
User-agent: YandexImages
Allow: /wp-content/uploads/
Все вроде правильно , просто уберите слеш после домена сайта в директиве Host
Спасибо, убрала, посмотрю, будут ли индексироваться статьи или нет.
Долго не могла разобраться как работать с robots.txt ,пока не нашла эту статью https://ifish2.ru/fail-robots-txt-chto-eto-takoe/ .
Эти ребята помогли мне разобраться с файлом и даже помогли исправить мои ошибки!! Теперь мой сайт работает как надо))
Прочитал эту статью и статью рекомендованную katy и обнаружил в своем robots.txt несколько ошибок. Исправил. Знание – это сила!