구글, 웹사이트 용량 증가가 검색 품질 저하와 무관하다고 밝혀
구글은 웹페이지 용량 증가가 반드시 성능 저하를 의미하지 않는다고 설명합니다. 콘텐츠의 유용성이 물리적 크기보다 검색 엔진 최적화에 더 중요한 요소라는 입장입니다.
주장구글의 마틴 스플릿과 게리 일리스는 웹사이트 용량 증가가 반드시 부정적인 현상은 아니라고 분석합니다. 페이지의 물리적 크기보다 데이터가 사용자나 검색 엔진에 제공하는 가치가 더 중요한 지표이기 때문입니다.
팩트구글의 검색 로봇인 구글봇은 페이지당 최대 2메가바이트의 하이퍼텍스트 마크업 언어(HTML)를 크롤링합니다. 이는 약 200만 개의 문자로 구성된 분량으로, 해리포터 소설 두 권에 해당하는 텍스트 양과 맞먹습니다.
팩트웹 데이터 분석 서비스인 웹 연감에 따르면, 웹페이지 중간값 용량은 2015년 845킬로바이트에서 올해 7월 기준 2.3메가바이트로 증가했습니다. 이 수치는 이미지와 스크립트 등 전체 데이터를 합산한 결과입니다.
교차검증페이지 용량은 측정 방식에 따라 큰 차이를 보입니다. HTML만 측정하는지, 이미지와 스타일 시트(CSS), 자바스크립트를 모두 포함하는지에 따라 데이터가 담는 의미가 달라지기 때문입니다.
팩트브로틀리(Brotli)와 같은 서버 측 압축 알고리즘은 네트워크 전송 시 파일 크기를 줄입니다. 전송 시 5~6메가바이트였던 파일이 사용자 기기에서 압축이 풀리면 10메가바이트 이상으로 늘어날 수 있어 용량 정의에 모호함이 존재합니다.
주장마틴 스플릿은 페이지 용량에 대한 보편적인 정의가 없다고 강조합니다. 단순히 용량이 크다는 이유만으로 비효율적인 페이지라고 단정 짓는 것은 기술적으로 타당하지 않습니다.
팩트15메가바이트의 HTML 문서라도 그 내용이 사용자에게 유용한 콘텐츠로 채워져 있다면 검색 엔진은 이를 문제 삼지 않습니다. 반면 콘텐츠는 적고 불필요한 마크업이나 메타데이터만 많다면 이는 비효율적인 구조로 간주합니다.
팩트구조화된 데이터와 같은 기계 중심의 데이터는 사용자가 직접 보지 못하더라도 검색 엔진이나 인공지능 에이전트에게는 필수적입니다. 이러한 데이터는 웹페이지 전체 용량을 늘리지만 검색 노출과 같은 실질적인 가치를 창출합니다.
교차검증게리 일리스는 인간용 콘텐츠와 기계용 데이터를 분리하는 방안을 언급했으나, 이를 현실적으로 구현하는 것은 유토피아적인 발상이라며 부정적인 견해를 보였습니다. 웹의 구조적 복잡성 때문에 모든 오버헤드를 제거하는 것은 사실상 불가능합니다.
출처서치 엔진 저널(Search Engine Journal)의 '구글이 웹사이트 용량 증가가 중요하지 않다고 설명한 이유' 기사를 교차 검증했습니다.
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.