На сьогоднішній день багато що залежить від SEO та видимості вашого веб-сайту у пошукових системах. Власники сайтів роблять все, щоб їхні сторінки займали топові позиції. Однак можуть бути якісь сторінки, які не потрібно відображати в результатах пошуку.
Для цього ви налаштовуєте default robots. Оскільки блог — це складний інструмент генерації трафіку, вам потрібно також налаштувати default robots для сторінок блогу.
Тож, у цій статті ви дізнаєтесь більше про default robots у блозі.
Що таке default robots?
Default robots також відомі як robots.txt — це стандарт, що використовується веб-сайтами для комунікації з веб-роботами. Ці роботи для повідомлення веб-сканерів (web crawlers) про те, які сторінки вашого веб-сайту ви хочете або не хочете сканувати та обробляти.
Для чого потрібні default robots?
Конфіденційність та SEO. Окрім того, що ви можете «заховати» деякі сторінки свого сайту від веб-сканерів, ви можете вказати, які саме сторінки ви хочете дозволити пошуковим системам аналізувати та відображати у результатах пошуку Google.
У Magento 2 Блог можна задати Default Robots для сторінки автора.
Окрім цього, ви можете налаштувати їх для сторінок тегу та пошуку.
Після того, як ви задасте та збережете default robots для сторінок автора, тегу та пошуку, роботи будуть додані перед закриваючим тегом <head> в HTML сторінки.
Проте, ми також рекомендуємо додати їх у файл robots.txt на вашому сайті.
Перегляньте цю статтю про налаштування файлу robots.txt у Magento 2 та дізнайтесь більше про кожну опцію default robots та приклади robots.txt файлу.