Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемЕлена Степунина
1 Материалы взяты из википедии
2 robots.txt robots.txt файл ограничения доступа к содержимому роботам на http-серверефайлhttp Файл должен находиться в корне сайта (то есть иметь путь относительно имени сайта /robots.txt).сайта При наличии нескольких субдоменов файл должен располагаться в корневом каталоге каждого из них
3 robots.txt
4 Файл robots.txt используется для частичного управления индексированием сайта поисковыми роботами. Этот файл состоит из набора инструкций для поисковых машин, при помощи которых можно задать файлы, страницы или каталоги сайта, которые не должны индексироваться.
5 robots.txt Данный файл дополняет стандарт Sitemaps, который служит прямо противоположной цели: облегчать роботам доступ к содержимому. Sitemaps
6 robots.txt Примеры Запрет доступа всех роботов ко всему сайту: User-agent: * Disallow: /
7 robots.txt Примеры Запрет доступа определенного робота к каталогу /private/: User-agent: googlebot Disallow: /private/
8 robots.txt Нестандартные директивы Crawl-delay: устанавливает время, которое робот должен выдерживать между загрузкой страниц (в секундах) User-agent: * Crawl-delay: 10
9 robots.txt Нестандартные директивы Allow: имеет действие, обратное директиве Disallow разрешает доступ к определенной части ресурса. Allow: /album1/photo.html Disallow: /album1/
10 robots.txt Расширенный стандарт: User-agent: * Disallow: /downloads/ Request-rate: 1/5 # загружать не более одной страницы за пять секунд Visit-time: # загружать страницы только в промежуток с 6 утра до 8:45 по Гринвичу.
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.