Đang chuẩn bị liên kết để tải về tài liệu:
Web crawler- web spider- web robot- googlebot
Đang chuẩn bị nút TẢI XUỐNG, xin hãy chờ
Tải xuống
Web crawler- web spider- web robot- googlebot Web crawler, web spider hay web robot là một chương trình tự động tìm kiếm trên Internet. Nó được thiết kết để thu thập tài nguyên Internet (trang Web, hình ảnh, video, tài liệu Word, PDF hay PostScrips) , cho phép máy tìm kiếm đánh chỉ số sau đó. Cùng phương thức, nhưng một số robots lại bị sử dụng để lượm các tài nguyên hoặc để lọc địa chỉ email. Để đánh chỉ số các tài nguyên Web, mỗi robot sẽ đi theo các liên kết mà nó tìm thấy tại một trang trung. | Web crawler- web spider- web robot- googlebot Web crawler web spider hay web robot là một chương trình tự động tìm kiếm trên Internet. Nó được thiết kết để thu thập tài nguyên Internet trang Web hình ảnh video tài liệu Word PDF hay PostScrips cho phép máy tìm kiếm đánh chỉ số sau đó. Cùng phương thức nhưng một số robots lại bị sử dụng để lượm các tài nguyên hoặc để lọc địa chỉ email. Để đánh chỉ số các tài nguyên Web mỗi robot sẽ đi theo các liên kết mà nó tìm thấy tại một trang trung tâm. Sau đó mỗi trang đã duyệt sẽ được ghi nhớ lại và gán cho tần số đánh lại chỉ số dựa vào mức độ cập nhật thường xuyên hay không của trang. Để điểu chỉnh ứng xử các robots một tệp tin ngoại trừ robots.txt sẽ được đặt tại thư mục gốc của trang Web để chỉ định cho robots một danh sách những tài nguyên không được tiếp cận. Tệp tin robots.txt này còn đưa ra danh sách những bọ tìm kiếm nào được quyền đánh chỉ số trang Web. Qui tắc này cho phép giảm tải trên máy chủ và tránh đánh chỉ số những tài liệu không cần thiết hoặc nhạy cảm. Tuy nhiên có nhiều bọ tìm kiếm không tôn trọng chỉ định này và hoàn toàn bỏ qua tệp tin ngoại trừ robots.txt . Một số bọ tìm kiếm phổ biến của các máy tìm kiếm - Googlebot của Google - MSNBot của MSN - Slurp của Yahoo - Scooter của Alta Vista - Baidu của .