웹 & SEO

Robots.txt 생성기

일반적인 차단 규칙과 sitemap 출력을 포함한 기본 robots.txt 파일을 생성합니다.

Your data stays on your deviceNo upload, no serverWorks offline

이 도구를 사용하는 이유

03

표준 관리자, 검색, 미리보기 경로 제외를 위한 robots.txt 시작 파일을 조합합니다.

지시문을 처음부터 편집하는 대신 깔끔한 robots.txt 출발점이 필요할 때 사용하십시오.

빌드하는 동안 일반적인 허용/차단 구조를 한눈에 확인할 수 있습니다.

사용 방법

03
01sitemap URL을 입력합니다.
02차단 규칙을 켜거나 끕니다.
03생성된 robots.txt 출력을 복사합니다.

복사 전 빠른 확인

03

Confirm the input is the format you intended.

Scan the result before using it in a document, URL, config, or message.

Copy only the output you need.

자주 묻는 질문

03
이것이 모든 사이트에 충분합니까?

아니요. 라우팅과 크롤 정책에 맞게 검토해야 하는 시작 파일입니다.

특정 봇을 이름으로 차단할 수 있습니까?

네. User-agent 필드를 특정 봇 이름으로 설정하거나, 모든 크롤러에 규칙을 적용하려면 *를 사용하십시오.

출력에 sitemap URL을 추가할 수 있습니까?

네. sitemap 필드는 생성된 파일 끝에 Sitemap: 지시문을 추가합니다.

관련 도구

03