일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- mysql
- 시놀로지
- Rocky
- proxmox
- 킹북이초월
- 가상서버호스팅
- nginx
- centos
- 알리익스프레스
- 리눅스
- 보르비스초월
- Apache
- ConoHa
- 복현오거리
- 알뜰폰
- iptime
- 스톤에이지
- html/css
- jQuery
- 램가스초월
- KB국민카드
- 티스토리
- 자바스크립트
- KB증권
- SKT
- 아파치
- 윈도우10
- php
- 소비전력
- PHP-FPM
- Today
- Total
맛집 여행 캠핑 일상 생활
구글봇 및 검색봇 차단하여 트래픽 줄이기 본문
구글봇 및 여러 검색봇들이 은근히 트래픽을 발생시키기도 한다. 이러한 검색엔진봇들을 차단하면 트래픽을 줄이는데 도움이 된다.
이러한 검색봇들에 의한 트래픽을 막는 방법중에 robots.txt 파일을 이용하는 방법이다.
물론 메타태그를 이용하는 방법도 있다.
robots.txt 파일은 도메인 루트 디렉토리에 위치하여야 한다. (index.html이 위치하는 곳)
robots.txt 파일을 아래의 방법으로 작성하여 웹서버에 ftp로 업로드하면 된다.
▶ 모든 검색봇 차단
User-agent: *
Disallow: /
▶ 모든 봇 허용
User-agent: *
Allow: /
▶ 구글봇 차단 (구글봇, 구글봇이미지, 구글봇모바일)
User-agent: Googlebot
Disallow: /
User-agent: Googlebot-Image
Disallow: /
User-agent: Googlebot-Mobile
Disallow: /
▶ 빙봇 차단
User-agent: bingbot
Disallow: /
▶ 네이버봇 차단
User-agent: Yeti
Disallow: /
▶ 특정 디렉토리만 차단
User-agent: *
Disallow: /특정디렉토리명
이 외에 다양한 검색봇들이 있다.
Baiduspider
meanpathbot
MJ12bot
MSIE
YandexBot
등등
robots.txt 로 차단을 했지만 무시하고 들어오는 봇들이 있다면 아파치 설정에서 차단해주면 된다.
.htaccess 파일에 아래 내용을 추가
SetEnvIfNoCase User-Agent "baidu" ban_bot
SetEnvIfNoCase remote_addr 차단IP ban_bot
Oder Allow,Deny
Allow from all
Deny from env=ban_bot
차단IP 에는 해당봇의 IP를 알아내어 적어주면 된다.
SetEnvIfNoCase remote_addr 192.168.123. ban_bot
Oder Allow,Deny
Allow from all
Deny from env=ban_bot
IP가 c class 대역이라면 aaa.bbb.ccc. 으로 적어주면 된다.
▶ 메타태그로 검색봇 차단
<meta name="robots" content="noindex,nofollow">
noindex,nofollow 대신에 none을 사용하여도 된다.
메타 태그에 위와 같이 적어줘도 무시하는 검색봇이 있다면 위의 아파치단에서 차단해주는게 제일 확실하다.
아파치 mod_expires 설정으로 트래픽 줄이기 http://itrooms.tistory.com/48
'LAMP' 카테고리의 다른 글
PHP 파일 move 함수 (0) | 2016.03.04 |
---|---|
특정 DDNS 도메인주소 sshd 접근허용하기 (0) | 2016.03.03 |
아파치 이미지파일 로그 안나오게 하기 (0) | 2016.03.02 |
리눅스 반복 예약작업 cron crontab (0) | 2016.03.02 |
리눅스 사용자 DB & Data 자동 백업 (0) | 2016.02.26 |