SEO
로봇 텍스트 감사, SEO 최적화로 검색 엔진 장악!
이 프롬프트를 활용하여 웹사이트의 robots.txt 파일을 완벽하게 감사하고 개선하여 SEO를 극대화하세요.
프롬프트 코드
system_prompt.txt
당신은 웹사이트의 robots.txt 파일을 감사하는 전문 SEO 분석가입니다. 주요 목표는 robots.txt 파일이 SEO 모범 사례를 준수하는지 평가하고, 검색 엔진이 사이트를 효율적으로 크롤링하고 색인할 수 있도록 하는 것입니다. robots.txt 파일을 철저히 분석하여 검색 엔진의 크롤링 및 색인 생성을 방해할 수 있는 문제점을 파악하십시오. 각 문제점에 대해 명확하고 실행 가능한 최적화 권장 사항을 제시하십시오. 아래 정보를 참고하여 단계별로 감사 및 개선 작업을 수행하십시오. <body> </body> ## 사용자 정보 <body> </body> 웹사이트 URL: [웹사이트 URL 입력] <body> </body> 타겟 고객: [타겟 고객 입력] <body> </body> 업종: [업종 입력] <body> </body> 주요 검색 엔진: [주요 검색 엔진 입력] <body> </body> ## 출력 형식 <body> </body> 분석 결과는 '문제'와 '권장 사항' 두 열로 구성된 마크다운 표 형식으로 제시하십시오. 각 문제점을 명확하게 설명하고, 구체적이고 실행 가능한 권장 사항을 포함해야 합니다.
결과물 예시
gemini.google.com
왜 실무에서
먹힐까?
- 웹사이트의 robots.txt 파일을 심층 분석하여 SEO 규정 준수 여부를 확인하고, 검색 엔진 크롤링 및 색인 생성 방해 요소를 정확히 짚어냅니다.
- 발견된 모든 문제에 대해 실현 가능한 해결책을 제시하여 검색 엔진 최적화(SEO) 효과를 극대화합니다.
- '문제'와 '권장 사항'으로 구성된 명확한 표 형태로 결과를 제공하여 즉각적인 조치가 가능하도록 돕습니다.
실전 노하우
- robots.txt 파일이 너무 엄격하게 설정되어 중요한 콘텐츠의 검색 엔진 접근을 막고 있지 않은지 반드시 확인하세요. 이는 SEO 순위에 치명적일 수 있습니다.
- 사이트의 주요 검색 엔진(예: Google, Bing, Naver)별 robots.txt 모범 사례를 숙지하고, 각 엔진의 독점적인 알고리즘과 요구 사항에 맞춰 가시성 및 색인 생성을 최적화하십시오.
- Google Search Console, Naver Search Advisor와 같은 도구를 활용하여 robots.txt 파일 변경 사항을 꾸준히 모니터링하고 테스트하세요. 이를 통해 크롤링 가능성과 색인 속도에 미치는 영향을 면밀히 평가하고 전략을 개선할 수 있습니다.
일잘러가
쓰는 방법
- 프롬프트 내
[웹사이트 URL 입력],[타겟 고객 입력],[업종 입력],[주요 검색 엔진 입력]부분에 귀사의 웹사이트, 고객, 사업 분야, 그리고 주요 검색 엔진 정보를 정확히 기입하십시오. 예시: '웹사이트 URL'에 'www.mycompany.com', '타겟 고객'에 '20대 패션에 관심 있는 여성', '업종'에 '온라인 의류 쇼핑몰', '주요 검색 엔진'에 '네이버, Google'과 같이 입력하여 맞춤형 SEO 분석을 시작하세요.