На сьогоднішній день багато що залежить від SEO та видимості вашого веб-сайту у пошукових системах. Власники сайтів роблять все, щоб їхні сторінки займали топові позиції. Однак можуть бути якісь сторінки, які не потрібно відображати в результатах пошуку.

Для цього ви налаштовуєте default robots. Оскільки блог — це складний інструмент генерації трафіку, вам потрібно також налаштувати default robots для сторінок блогу.

Тож, у цій статті ви дізнаєтесь більше про default robots у блозі.

Що таке default robots?

Default robots також відомі як robots.txt — це стандарт, що використовується веб-сайтами для комунікації з веб-роботами. Ці роботи для повідомлення веб-сканерів (web crawlers) про те, які сторінки вашого веб-сайту ви хочете або не хочете сканувати та обробляти.

Для чого потрібні default robots?

Конфіденційність та SEO. Окрім того, що ви можете «заховати» деякі сторінки свого сайту від веб-сканерів, ви можете вказати, які саме сторінки ви хочете дозволити пошуковим системам аналізувати та відображати у результатах пошуку Google.

У Magento 2 Блог можна задати Default Robots для сторінки автора.

Default Blog Author Page Robots

Окрім цього, ви можете налаштувати їх для сторінок тегу та пошуку

Magento 2 default robots

Після того, як ви задасте та збережете default robots для сторінок автора, тегу та пошуку, роботи будуть додані перед закриваючим тегом <head> в HTML сторінки.

Проте, ми також рекомендуємо додати їх у файл robots.txt на вашому сайті.

Перегляньте цю статтю про налаштування файлу robots.txt у Magento 2 та дізнайтесь більше про кожну опцію default robots та приклади robots.txt файлу.