Cách sử dụng Robots.txt
(Download CTIM) Gửi ngày 19 tháng 1 năm 2010 - 5429 lượt xem
1. robots.txt : là gì?
- robots.txt là một file chứa các thông tin theo một cấu trúc xác định. Các thông tin này sẽ giới hạn khu vực truy cập của các search engine (vd: google, hoặc yahoo). Các search engine sẽ không đặt index tìm kiếm cho các khu vực giới hạn được ghi nhận trên robots.txt.
- Ví dụ: bạn không muốn các trang login, trang nội bộ, trang diễn đàn xuất hiện trên trang tìm kiếm ở Google, hãy thiết lập nó ở đây.
- robots.txt hoạt động bằng cách xác định một user-agent và một command cho user-agent này.
- Các tham số có trong file robots.txt
-
- User-agent: khai báo tên search engine mà bạn muốn thiết lập khu vực truy cập với nó, vd: Googlebot, Yahoo! Slurp
- Disallow: là khu vực mà bạn muốn khoanh vùng không cho phép search engine truy cập.
- Crawl-Delay: thông số này xác định thời gian (tính bằng giây) search phải đợi trước khi chuyển sang site tiếp theo. Điều này sẽ có ích để ngăn chặn các search engine load server tùy tiện.
- Dấu # được sử dụng trước các dòng cần comment.
- Cho phép tất cả các search engine có thể spider toàn bộ site:
User-agent: *
Disallow:
- Chặn tất cả các search engine truy cập cgi-bin
User-agent: *
Disallow: /cgi-bin/
- Không cho phép Yahoo! Slurp truy cập thư mục admin
User-agent: yahoo! Slurp
Disallow: /admin/
- Không cho phép tất cả các search engine truy cập vào bất kì khu vực nào:
User-agent: *
Disallow: /
Tác giả: Sưu tầm
Các bài mới nhất:
- Phòng công chứng Số 6
- Saigonres - Tổng công ty địa ốc Sài Gòn
- Hệ điều hành Chrome OS có thể được tải từ tuần tới
- 'Windows 7 thay đổi ngành công nghiệp máy tính'
- Để website được nhận diện và gia tăng lượng truy cập
- Website là gì ?
- Tổng hợp Link Ebooks Diễn Đàn Tin Học CTIM
- Ba thủ thuật hay cho Windows 7
Các bài khác trong cùng danh mục:
- Website là gì ?
- Các bước để lập website
- Tìm hiểu về Web
Các bài mới trong cùng danh mục: