robot



Предыдущая | Следующая

robot - часть поисковой системы, предназначенная для сбора и анализа информации (контента) с сайтов. В соответствии с установленным алгоритмом робот анализирует содержание каждой страницы сайта, заносит его в базу данных поисковой системы и присваивает определенное место в рейтинге по конкретному запросу (производит индексацию). Чем чаще обновляется и дополняется информация на Вашем сайте, тем чаще робот будет проводить индексацию страниц.
robot (робот) [[[IRC]], MUD ], сущ. Пользователь IRC или MUD, который на самом деле является программой.   В IRC робот обычно оказывает какие-то полезные услуги. Например, робот NickServ мешает пользователям присваивать чужие nicks, a MsgServ позволяет посылать сообщения даже в том случае, если тот, к кому они направлены, временно отсутствует, с тем чтобы доставить их ему, когда объявится. Также распространены «annoybots» (раздражающие роботы, например KissServ), которые ничего полезного не совершают, а занимаются тем, что посылают другим пользователям любовные послания или другие прикольные сообщения. В MUD сервисные роботы встречаются значительно реже, зато попадаются другие экземпляры, например робот Julia, действовавший в 1990 91 годах, и которого легко можно было принять за человека, пообщавшись с ним 10-15 минут; представлял из себя один из впечатляющих экспериментов по теории Тьюринга (Turing).
robot - часть поисковой системы, предназначенная для сбора и анализа информации (контента) с сайтов. В соответствии с установленным алгоритмом робот анализирует содержание каждой страницы сайта, заносит его в базу данных поисковой системы и присваивает определенное место в рейтинге по конкретному запросу (производит индексацию). Чем чаще обновляется и дополняется информация на Вашем сайте, тем чаще робот будет проводить индексацию страниц. Владелец сайта может описать права доступа для поисковых роботов, т.е. указать им, какие страницы нужно индексировать, а какие - нет, предоставить разным роботам разные права доступа. Для этого создается специальный файл /robots.txt. Именно его в первую очередь запрашивает робот при обращении к серверу. Если в файле /robots.txt содержится 0 записей, то робот будет индексировать все страницы сайта в соответствии со своим алгоритмом. Если робот найдет в этом файле специально созданное для него правило, то поступит так, как ему предписано. Файл /robots.txt ограничивает действия поисковых роботов и за счет этого отчасти помогает решить серьезную проблему с нагрузкой на сервер, которая создается при индексации всего содержимого сайта. Существует еще один способ задать правила поведения робота для каждой HTML-страницы в специальных мета-тегах вида , где в robot_terms через запятую указываются правила индексации all, none, index, noindex, follow или nofollow.