웹 & SEO
Robots.txt 생성기
일반적인 차단 규칙과 sitemap 출력을 포함한 기본 robots.txt 파일을 생성합니다.
Your data stays on your deviceNo upload, no serverWorks offline
이 도구를 사용하는 이유
03표준 관리자, 검색, 미리보기 경로 제외를 위한 robots.txt 시작 파일을 조합합니다.
지시문을 처음부터 편집하는 대신 깔끔한 robots.txt 출발점이 필요할 때 사용하십시오.
빌드하는 동안 일반적인 허용/차단 구조를 한눈에 확인할 수 있습니다.
사용 방법
03복사 전 빠른 확인
03Confirm the input is the format you intended.
Scan the result before using it in a document, URL, config, or message.
Copy only the output you need.
자주 묻는 질문
03
이것이 모든 사이트에 충분합니까?
아니요. 라우팅과 크롤 정책에 맞게 검토해야 하는 시작 파일입니다.
특정 봇을 이름으로 차단할 수 있습니까?
네. User-agent 필드를 특정 봇 이름으로 설정하거나, 모든 크롤러에 규칙을 적용하려면 *를 사용하십시오.
출력에 sitemap URL을 추가할 수 있습니까?
네. sitemap 필드는 생성된 파일 끝에 Sitemap: 지시문을 추가합니다.
관련 도구
03크롤 및 사이트맵 관리자→
robots.txt, 사이트맵 인벤토리, canonical 호스트 규칙, hreflang 출력을 하나의 워크스페이스에서 생성합니다.
SEO 사전 검토 워크스페이스→
제목, 설명, canonical, robots, sitemap, hreflang을 하나의 워크스페이스에서 페이지 출시 전 검사합니다.
메타 및 소셜 미리보기→
메타 제목, 설명, Open Graph, 소셜 카드 텍스트를 함께 계획하고 하나의 태그 묶음으로 전달합니다.