본문 바로가기
블로그 수익화 방법

색인이 생성되었으나 robots.txt에 의해 차단됨 해결 방법을 알려줘

by 물질 모으기 2025. 4. 9.
반응형

"색인이 생성되었으나 robots.txt에 의해 차단됨" 오류는 웹사이트의 robots.txt 파일 설정으로 인해 특정 페이지가 검색 엔진에 의해 크롤링되지 못하는 문제를 의미합니다. 이를 해결하기 위한 단계는 다음과 같습니다:

1. robots.txt 파일 점검

  1. 파일 위치 확인:
  2. Disallow 규칙 확인:
    • 파일 내에서 문제가 되는 페이지 또는 디렉토리가 Disallow로 설정되어 있는지 확인하세요.
    • 예: text
      User-agent: *
      Disallow: /blocked-page/
    •  
  3. 수정 및 저장:
    • 문제가 되는 페이지를 크롤링 허용하려면 해당 규칙을 삭제하거나 수정합니다.
    • 예:
    • text
      User-agent: * Allow: /

2. 구글 서치콘솔에서 테스트

  1. robots.txt 테스터 사용:
    • 구글 서치콘솔에서 "robots.txt 테스터"를 실행하여 수정된 파일이 제대로 작동하는지 확인합니다.
    • URL을 입력하고 "테스트" 버튼을 클릭하여 크롤링 가능 여부를 점검합니다.
  2. 색인 요청:
    • 문제가 해결된 후, 구글 서치콘솔에서 해당 페이지의 색인 요청을 다시 제출합니다.

3. HTML 메타 태그 활용

  • 특정 페이지가 크롤링되지 않길 원한다면, HTML <head> 태그에 아래 코드를 추가하여 검색 엔진이 색인을 생성하지 못하도록 설정할 수 있습니다:
  • xml
    <meta name="robots" content="noindex">
  •  
  • 4. 대기 및 검증
  • 구글 크롤러가 변경 사항을 반영하는 데 시간이 걸릴 수 있으므로, 수정 후 며칠 동안 기다려야 할 수 있습니다.

5. 추가 팁

  • 크롤링 Budget 관리:
    • 사이트 크기가 큰 경우, 크롤링 우선순위를 설정하여 중요한 페이지가 먼저 색인되도록 합니다.
  • 보안 설정:
    • 민감한 정보를 포함한 페이지는 robots.txt뿐만 아니라 비밀번호 보호 또는 IP 차단을 통해 접근을 제한해야 합니다.

결론

  1. robots.txt 파일을 점검하고 필요한 수정 사항을 적용하세요.
  2. 구글 서치콘솔에서 테스트 및 색인 요청을 진행하세요.
  3. HTML 메타 태그를 활용하거나 보안 설정을 통해 추가적인 제어를 수행하세요.

위 단계를 따르면 대부분의 "색인이 생성되었으나 robots.txt에 의해 차단됨" 문제를 해결할 수 있습니다!