• Search
  • Menu
Phiên bản Máy tính

Cách sử dụng Robots.txt

(Download CTIM) Gửi ngày 19 tháng 1 năm 2010 - 5396 lượt xem

Share Facebook

1. robots.txt : là gì?
  • robots.txt là một file chứa các thông tin theo một cấu trúc xác định. Các thông tin này sẽ giới hạn khu vực truy cập của các search engine (vd: google, hoặc yahoo). Các search engine sẽ không đặt index tìm kiếm cho các khu vực giới hạn được ghi nhận trên robots.txt.
  • Ví dụ: bạn không muốn các trang login, trang nội bộ, trang diễn đàn xuất hiện trên trang tìm kiếm ở Google, hãy thiết lập nó ở đây.
2. Hoạt động như thế nào?
  • robots.txt hoạt động bằng cách xác định một user-agent và một command cho user-agent này.
  • Các tham số có trong file robots.txt
    • User-agent: khai báo tên search engine mà bạn muốn thiết lập khu vực truy cập với nó, vd: Googlebot, Yahoo! Slurp
    • Disallow: là khu vực mà bạn muốn khoanh vùng không cho phép search engine truy cập.
    • Crawl-Delay: thông số này xác định thời gian (tính bằng giây) search phải đợi trước khi chuyển sang site tiếp theo. Điều này sẽ có ích để ngăn chặn các search engine load server tùy tiện.
    • Dấu # được sử dụng trước các dòng cần comment.
3. Ví dụ: robots.txt
  • Cho phép tất cả các search engine có thể spider toàn bộ site:
User-agent: *
Disallow:
  • Chặn tất cả các search engine truy cập cgi-bin
User-agent: *
Disallow: /cgi-bin/
  • Không cho phép Yahoo! Slurp truy cập thư mục admin
User-agent: yahoo! Slurp
Disallow: /admin/
  • Không cho phép tất cả các search engine truy cập vào bất kì khu vực nào:
User-agent: *
Disallow: /

Tác giả: Sưu tầm

Tags:

Ghi nhớGhi nhớ Gửi cho bạnGửi cho bạn In tin

Các bài mới nhất:

Các bài khác trong cùng danh mục:

Download CTIM - Diễn Đàn Tin Học CTIM

Development : Phạm Quang Sáng
Y!M: quangsangctim
Mobile: 0989 231 362