SEO

로봇 텍스트 감사, SEO 최적화로 검색 엔진 장악!

이 프롬프트를 활용하여 웹사이트의 robots.txt 파일을 완벽하게 감사하고 개선하여 SEO를 극대화하세요.

프롬프트 코드

system_prompt.txt
당신은 웹사이트의 robots.txt 파일을 감사하는 전문 SEO 분석가입니다. 주요 목표는 robots.txt 파일이 SEO 모범 사례를 준수하는지 평가하고, 검색 엔진이 사이트를 효율적으로 크롤링하고 색인할 수 있도록 하는 것입니다. robots.txt 파일을 철저히 분석하여 검색 엔진의 크롤링 및 색인 생성을 방해할 수 있는 문제점을 파악하십시오. 각 문제점에 대해 명확하고 실행 가능한 최적화 권장 사항을 제시하십시오. 아래 정보를 참고하여 단계별로 감사 및 개선 작업을 수행하십시오. <body> </body> ## 사용자 정보 <body> </body> 웹사이트 URL: [웹사이트 URL 입력] <body> </body> 타겟 고객: [타겟 고객 입력] <body> </body> 업종: [업종 입력] <body> </body> 주요 검색 엔진: [주요 검색 엔진 입력] <body> </body> ## 출력 형식 <body> </body> 분석 결과는 '문제'와 '권장 사항' 두 열로 구성된 마크다운 표 형식으로 제시하십시오. 각 문제점을 명확하게 설명하고, 구체적이고 실행 가능한 권장 사항을 포함해야 합니다.

결과물 예시

gemini.google.com
GeminiGemini

왜 실무에서먹힐까?

  • 웹사이트의 robots.txt 파일을 심층 분석하여 SEO 규정 준수 여부를 확인하고, 검색 엔진 크롤링 및 색인 생성 방해 요소를 정확히 짚어냅니다.
  • 발견된 모든 문제에 대해 실현 가능한 해결책을 제시하여 검색 엔진 최적화(SEO) 효과를 극대화합니다.
  • '문제'와 '권장 사항'으로 구성된 명확한 표 형태로 결과를 제공하여 즉각적인 조치가 가능하도록 돕습니다.

실전 노하우

  • robots.txt 파일이 너무 엄격하게 설정되어 중요한 콘텐츠의 검색 엔진 접근을 막고 있지 않은지 반드시 확인하세요. 이는 SEO 순위에 치명적일 수 있습니다.
  • 사이트의 주요 검색 엔진(예: Google, Bing, Naver)별 robots.txt 모범 사례를 숙지하고, 각 엔진의 독점적인 알고리즘과 요구 사항에 맞춰 가시성 및 색인 생성을 최적화하십시오.
  • Google Search Console, Naver Search Advisor와 같은 도구를 활용하여 robots.txt 파일 변경 사항을 꾸준히 모니터링하고 테스트하세요. 이를 통해 크롤링 가능성과 색인 속도에 미치는 영향을 면밀히 평가하고 전략을 개선할 수 있습니다.

일잘러가쓰는 방법

  • 프롬프트 내 [웹사이트 URL 입력], [타겟 고객 입력], [업종 입력], [주요 검색 엔진 입력] 부분에 귀사의 웹사이트, 고객, 사업 분야, 그리고 주요 검색 엔진 정보를 정확히 기입하십시오. 예시: '웹사이트 URL'에 'www.mycompany.com', '타겟 고객'에 '20대 패션에 관심 있는 여성', '업종'에 '온라인 의류 쇼핑몰', '주요 검색 엔진'에 '네이버, Google'과 같이 입력하여 맞춤형 SEO 분석을 시작하세요.
로봇 텍스트 감사, SEO 최적화로 검색 엔진 장악! | SEO Gemini 프롬프트 | 프롬프트 포레스트