• Home
  • About
    • sadocode photo

      sadocode

      공부한 것들 정리해서 올리는 블로그입니다.

    • Learn More
    • Email
    • Github
  • Posts
    • All Posts
    • All Tags
  • Projects
  • Tags

“Google 검색엔진 최적화(SEO)”

02 Oct 2019

Reading time ~3 minutes

1. Google SEO 란?

  • SEO는 Search Engine Optimization의 약자이다. 직역하자면 검색엔진 최적화라는 뜻인데, 검색엔진에서 상단에 노출되게 하기위한 방법이라고 생각하면 된다. 우리나라에서 가장 많이 쓰이는 검색엔진은 구글, 네이버인데, 그 중 구글의 검색엔진 최적화를 위한 방법을 소개하고자 이 포스트를 작성하게 되었다.
  • 지난 1달간 구글 검색엔진 최적화를 위해서 여러 가지 작업을 진행해봤다. 그런데 생각보다 쉽지 않았다. 상당히 많은 것들을 해줘야 구글 검색 엔진에서 상위권에 노출될 수 있는데, 기본적인 것들만 소개해보겠다.
  • 이 글의 대상자 : 구글 SEO에 대해 처음 알아보는 사람


2. robots.txt

  • 구글 검색엔진에서의 노출은 기본적으로 구글봇이라는 크롤러 1 가 여러 웹사이트를 크롤링하면서 모은 정보의 순위를 매기는 방식으로 진행된다.
  • 모든 크롤링은 각 사이트의 robots.txt를 참고하여 진행되는데, robots.txt에 표시된 정보에 따라서 크롤링을 가능, 불가능하게 설정할 수 있다.
  • 이 블로그의 robots.txt는 아래와 같다.robots.txt


# Allow crawling of all content
User-agent: *
Allow: /
Sitemap: https://sadocode.github.io/sitemap.xml 


  • User-agent : 크롤러를 의미한다. 값을 * 로 하면 모든 크롤러를 의미한다. 구글봇의 이름은 Googlebot이다.
  • Allow : 크롤링을 허락할 웹사이트의 path를 의미한다. 만약에 어느 부분만 크롤링하길 원한다면 원하는 path를 설정하면 된다.
  • Disallow : 크롤러가 크롤링하지 못 하는 path를 입력한다. 위의 robots.txt에는 Disallow를 설정하지 않고, Allow : / 로 설정하였으므로, 모든 path의 크롤링을 허용하겠다는 의미이다.
  • Sitemap : 웹사이트의 sitemap.xml의 path를 표시해주는 부분이다. 크롤러는 sitemap을 보고 sitemap에 표시된 페이지들을 크롤링한다.
  • 아래와 같은 방식으로 robots.txt를 작성할 수도 있다.


User-agent: Googlebot
Allow: /
User-agent: Bingbot
Allow: /
User-agent: Twitterbot
Allow: /image

User-agent: *
Disallow: /

Sitemap: https://sadocode.github.io/sitemap.xml


  • 위의 robots.txt는 구글봇, 빙봇에게는 사이트의 크롤링을 모두 허용, 트위터봇은 /image에만 크롤링을 허용하고, 나머지 크롤러들의 크롤링은 막겠다는 의미이다.
  • 각 기업, 검색엔진의 크롤러를 검색을 통해 확인해서 적용하는 것을 추천한다. 웹 크롤러 - 위키백과, 우리 모두의 백과사전


3. sitemap.xml

  • 구글봇은 robots.txt를 통해 크롤링 가능한 부분을 확인한 후에 sitemap을 확인한다. sitemap에 표시된 페이지를 참고해서 크롤링을 진행한다.
  • 이 블로그의 sitemap.xml은 아래와 같다.



  • urlset : 필수. 파일을 캡슐화하고, 현재 프로토콜의 표준을 참조한다.
  • url : 필수. 각 URL 항목의 상위 태그.
  • loc : 필수. 페이지의 URL
  • lastmod : 최종 수정 시각
  • changefreq : 문서 update 주기. 값으로는 always, hourly, daily, weekly, monthly, yearly, never가 올 수 있다. 검색엔진에 제공하는 보편적인 정보로 검색 엔진(구글)에서 크롤링하는 정확한 빈도와는 관련이 없을 수도 있다고 한다.
  • priority : 값으로는 0.0 ~ 1.0이 올 수 있다. 검색엔진이 사이트 내에서 크롤링할 페이지의 우선순위를 정할 때에 고려하는 값이다. 페이지 별로 값을 다르게 줘서 중요도가 높은 페이지가 검색엔진에 더 노출될 확률을 올릴 수 있다. (모든 페이지를 1.0으로하는 것은 모든 페이지를 0.1로 한 것과 똑같다.)
  • sitemap 참고 페이지

4. Google Search Console

  • robots.txt, sitemap.xml을 등록한다고 구글에 검색되는 것은 아니다. 구글에 검색되려면 구글 서치 콘솔에 내 사이트를 등록해줘야 한다. 구글 서치 콘솔에서 시키는대로 사이트 인증을 하고, 본인 사이트의 sitemap.xml의 URL을 등록하면 된다. 기억하기론 하루 정도 지나고 나니까 구글봇이 사이트를 크롤링하기 시작했던 것 같다.


  • 위의 이미지는 robots.txt, sitemap.xml을 설정하고 Google Search Console에 사이트를 등록하고 난 뒤에 구글봇이 이 사이트를 크롤링한 횟수를 나타낸다. 서치 콘솔에 등록하기 전에는 0이었던 크롤링 횟수가 변화했음을 알 수 있다.
  • 즉, 무조건 Google Search Console에 등록해야지만 구글에 내 사이트가 검색가능하다!!

5. 추가 내용

이 포스트의 내용은 정말 구글검색엔진에 노출되기 위해 기본적으로 해줘야하는 부분이다. 따라서 사이트를 검색엔진 상위권에 올리고 싶으면, 훨씬 더 많은 것들을 해줘야 한다. 뉴스, 신문 사이트들을 대상으로 조사를 해봤는데 매일경제가 언론사 규모에 비해 상당히 구글 검색엔진 최적화가 잘 되어 있는듯하다. SEO를 어떤 식으로 하면 좋을 지 궁금하면 참고해보는 것도 좋을 것 같다. 매일경제.

5.1 Google SEO 추가 정보

구글에서 공개한 내용에 따르면 검색엔진에 상위 노출되기 위한 결정적 요소 3가지는 다음과 같다.

  1. 키워드 수와 위치
  2. 웹페이지의 생성 시기
  3. 웹페이지로 들어오는 인바운드 링크의 수


그 밖에 중요한 요소는 다음과 같다고 한다.

  1. 모바일 친화적인 웹페이지
  2. 보안 프로토콜(HTTPS)
  3. robots.txt, sitemap.xml
  4. title과 meta description 태그
  5. 소셜 메타 태그
  6. 이미지 태그 최적화
  7. 콘텐츠 최적화
  1. 크롤러 - 웹사이트를 방문하여 각종 정보를 자동으로 수집하는 프로그램. 검색엔진의 근간이 된다. 크롤링 - 웹사이트를 방문하여 각종 정보를 수집하는 행위. ↩



SEOGoogle Share Tweet +1