일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Apache
- 자바스크립트
- 램가스초월
- mysql
- jQuery
- 윈도우10
- 티스토리
- 가상서버호스팅
- proxmox
- 킹북이초월
- 보르비스초월
- Rocky
- OpenWrt
- KB국민카드
- 리눅스
- 라즈베리파이2
- 시놀로지
- 복현오거리
- SKT
- ConoHa
- php
- PHP-FPM
- KB증권
- 알리익스프레스
- 소비전력
- iptime
- centos
- 알뜰폰
- 스톤에이지
- 아파치
- Today
- Total
맛집 여행 캠핑 일상 생활
특정 검색봇은 허용하고 이외에는 차단 robots.txt 본문
728x90
수많은 검색봇들이 있는데 이중에 잘 알려는 검색봇만 허용하고 나머지는 차단해주는 robots.txt 작성 예제입니다.
User-Agent: Amazonbot
User-agent: AhrefsBot
User-Agent: AwarioBot
User-agent: Baiduspider
User-Agent: DataForSeoBot
User-Agent: DotBot
User-Agent: MauiBot
User-Agent: MJ12bot
User-agent: SemrushBot
User-agent: PetalBot
User-agent: YandexBot
Disallow: /
User-Agent: Bingbot
User-Agent: Daum
User-Agent: DuckDuckBot
User-Agent: Googlebot
User-Agent: Slurp
User-Agent: Yeti
Allow: /
Sitemap: https://www.example.com/sitemap.xml
빙봇, 다음봇, 덕덕봇, 구글봇, 야후봇, 네이버봇만 허용 나머지는 차단하는 간단한 예제는
User-Agent: Bingbot
User-Agent: Daum
User-Agent: DuckDuckBot
User-Agent: Googlebot
User-Agent: Slurp
User-Agent: Yeti
Allow: /
User-agent: *
Disallow: /
우선 순위는 Allow 가 Disallow 보다 높습니다.
728x90
반응형
'IT이야기' 카테고리의 다른 글
[Win10] 컴퓨터 디스크 관리에서 지워지지 않는 파티션 삭제 (0) | 2024.04.05 |
---|---|
RustDesk Failed to connect via relay server (0) | 2024.01.29 |
[윈도우10] 컴퓨터 쿨링팬 소음 줄이는 방법 (0) | 2023.03.29 |
[CentOS] 8.x Squid Proxy 서버 구축 방법 (0) | 2023.03.23 |
[윈도우10] Nox VT 기능 비활성화로 녹스앱플레이어 실행 안되는 문제 (0) | 2023.03.20 |
Trackback : | Comments :