Введіть ім'я домену:
.ua .com.ua .in.ua .org.ua
.ru .com .net .org
Показати всі домени

Для чого потрібен файл robots.txt

Відповіді на запитання від компанії "Український хостинг".

Для чого потрібний файл robots.txt

Файл robots.txt , також званий індексним файлом, є звичайним текстовим документом у кодуванні UTF-8. Цей файл містить інструкції для пошукових роботів, які містять рекомендації про те, які сторінки або файли потрібно сканувати.

Під час обробки файлу robots.txt пошукові роботи можуть отримати одну з трьох інструкцій:

  • Повна заборона сканування.
  • Повний доступ до сканування.
  • Частковий доступ до сканування.

Файл потрібно розміщувати у кореневій директорії сайту у вигляді звичайного текстового файлу. Після розміщення файлу необхідно переконатись, що він доступний за адресою https://ваш_домен.com.ua/robots.txt

Нижче вказано кілька правил, наприклад.

  1. User-agent є правилом, яке повідомляє про те, яким роботам необхідно переглянути інструкції, вказані у файлі robots.txt

    Щоб дозволити перегляд інструкцій усім роботам, необхідно прописати таке правило:

     User-agent:*

    Якщо ж необхідно дозволити перегляд інструкції тільки для роботів google, потрібно встановити таке правило:

     User-agent: Googlebot
  2. Disallow є правилом, що повідомляє, яку саме інформацію не варто сканувати.

    Щоб дозволити сканування всієї інформації на сайті, необхідно прописати таке правило:

     Disallow:

    Щоб заборонити сканування всієї інформації на сайті, необхідно прописати таке правило:

     Disallow: /

    Щоб заборонити сканування лише конкретної папки на сайті (у прикладі папка називається images), необхідно прописати таке правило:

     Disallow: /images/

    Щоб заборонити сканування лише конкретної URL на сайті (у прикладі URL називається images.html), необхідно прописати таке правило:

     Disallow: /images.html

    Щоб заборонити сканування лише конкретного файлу на сайті (у прикладі файл називається images.jpg), необхідно прописати таке правило:

     Disallow: /images.jpg

    Щоб заборонити сканування всіх файлів на сайті з певним розширенням (у прикладі вказано розширення .jpg), необхідно прописати таке правило:

     Disallow: /*.jpg$
  3. Allow є правилом, що повідомляє, яку саме інформацію не потрібно сканувати.

    У випадку, якщо необхідно заборонити сканування всього сайту, крім папки images необхідно прописати таке правило:

     Allow: /images Disallow: /
  4. Sitemap є правилом, що повідомляє роботам розташування файлу sitemap.xml, в якому знаходяться всі URL адреси, обов'язкові для індексації:

     Sitemap: https://ваш_домен.com.ua/sitemap.xml

    Існують і інші правила для файлу robots.txt, докладнішу інформацію про які можна дізнатися на наступному ресурсі - https://support.google.com/webmasters/answer/6062608?hl=ua

Див. також:

Будь ласка, виберіть мову сайту за промовчанням: