Какую информацию о веб-странице собирает поисковый робот?

Pravednick Pravednick    2   08.09.2019 21:50    5

Ответы
псдрпл псдрпл  07.10.2020 01:47
Поисковый робот – это программа, которая в автоматическом режиме осуществляет переходы по сайтам через ссылки на них и индексирует содержимое страниц.

Порядок просмотра страниц и регулярность последующих визитов определяется алгоритмами поисковой машины. Используя файл robots.txt, в котором содержатся инструкции для поисковых роботов, владелец сайта может запретить индексирование, как всего сайта, так и некоторых его страниц.

Существуют следующие типы поисковых роботов:

национальный поисковый робот: собирает информацию с одного домена (например, .ru), используется в локальных системах поиска;
глобальные поисковые роботы: собирают информацию с различных национальных сайтов, используются в глобальных системах поиска;
индексатор картинок: ведет работу по индексации графики;
индексатор медиа-файлов: ведет работу по индексации файлов формата аудио и видео;
робот-зеркальщик: занимается определением зеркал сайтов;
ссылочный робот: подсчитывает количество ссылок на сайте, ТИЦ и др.;
робот-оформитель: оформляет результаты, выдаваемые поисковой системой;
проверяющий робот: проверяет присутствие ресурса в базе данных и число индексированных документов;
робот-стукач (иначе называется дятел): проверяет доступность сайта или документа, на который имеется ссылка;
робот-шпион: занимается поиском ссылок на сайты, которые не находятся в базе данных системы;
робот-смотритель: перепроверяет полученные результаты;
робот-исследователь: занимается отладкой поискового алгоритма или исследованием конкретных сайтов;
оперативный робот: определяет время последнего обновления сайтов.
ПОКАЗАТЬ ОТВЕТЫ
Другие вопросы по теме Информатика