آیا فشرده سازی یک اسطوره Google SEO است؟


من به تازگی با آزمایش سئو روبرو شدم که سعی در تأیید اینکه آیا نسبت فشرده سازی بر رتبه بندی تأثیر می گذارد یا خیر. به نظر می رسد ممکن است عده ای باشند که معتقدند نسبت های فشرده سازی بالاتر با رتبه های پایین تر ارتباط دارند. درک تراکم پذیری در زمینه سئو نیاز به خواندن منبع اصلی در نسبت فشرده سازی و خود مقاله تحقیق قبل از نتیجه گیری در مورد اینکه آیا این یک اسطوره سئو است یا خیر.

موتورهای جستجو صفحات وب را فشرده می کنند

تراکم پذیری ، در زمینه موتورهای جستجو ، به میزان فشرده سازی صفحات وب اشاره دارد. کوچک کردن یک سند در یک فایل زیپ نمونه ای از فشرده سازی است. موتورهای جستجو صفحات وب را به این دلیل که باعث صرفه جویی در فضا می شود و منجر به پردازش سریعتر می شود ، فشرده می کند. این کاری است که همه موتورهای جستجو انجام می دهند.

وب سایت ها و ارائه دهندگان میزبان صفحات وب را فشرده می کنند

فشرده سازی صفحه وب یک چیز خوب است زیرا به جستجوی خزنده ها کمک می کند تا به سرعت به صفحات وب دسترسی پیدا کنند که به نوبه خود سیگنال را به Googlebot ارسال می کند که سرور را فشار نمی دهد و خوب است که حتی صفحات بیشتری را برای نمایه سازی بدست آورید.

فشرده سازی وب سایت ها را سرعت می بخشد و تجربه کاربری با کیفیت بالا را به بازدید کنندگان سایت می دهد. اکثر میزبان وب به طور خودکار فشرده سازی را فعال می کنند زیرا برای وب سایت ها ، بازدید کنندگان سایت و همچنین برای میزبان وب مفید است زیرا در بارهای پهنای باند ذخیره می شود. همه با فشرده سازی وب سایت برنده می شوند.

سطح بالای فشرده سازی با هرزنامه ارتباط دارد

محققان یک موتور جستجو کشف کردند که صفحات وب بسیار فشرده با محتوای کم کیفیت ارتباط دارد. مطالعه نامیده شد هرزنامه ، اسپم لعنتی و آمار: استفاده از تجزیه و تحلیل آماری برای یافتن صفحات وب اسپم (PDF) در سال 2006 توسط دو محقق برجسته جهان ، مارک نجورک و دنیس فترتلی انجام شد.

Najork در حال حاضر در DeepMind به عنوان دانشمند تحقیق برجسته فعالیت می کند. Fetterly ، یک مهندس نرم افزار در Google ، نویسنده بسیاری از مقالات مهم تحقیقاتی مربوط به جستجو ، تجزیه و تحلیل محتوا و سایر موضوعات مرتبط است. این مقاله تحقیق فقط هیچ مقاله تحقیقاتی نیست ، بلکه یک مقاله مهم است.

آنچه در مقاله تحقیقاتی نشان می دهد این است که 70 ٪ از صفحات وب که در سطح 4.0 یا بالاتر فشرده می شوند ، صفحات با کیفیت پایین با سطح بالایی از استفاده از کلمات زائد هستند. میانگین سطح فشرده سازی سایت ها حدود 2.0 بود.

در اینجا میانگین صفحات وب عادی ذکر شده توسط مقاله تحقیق وجود دارد:

  • نسبت فشرده سازی 2.0:
    بیشترین نسبت فشرده سازی در مجموعه داده 2.0 است.
  • نسبت فشرده سازی 2.1:
    نیمی از صفحات دارای نسبت فشرده سازی زیر 2.1 هستند و نیمی از آن نسبت فشرده سازی بالاتر از آن است.
  • نسبت فشرده سازی 2.11:
    به طور متوسط ​​، نسبت فشرده سازی صفحات مورد تجزیه و تحلیل 2.11 است.

این یک روش آسان برای اولین بار برای فیلتر کردن هرزنامه محتوای آشکار خواهد بود ، بنابراین منطقی است که آنها این کار را برای هرزنامه محتوای سنگین انجام دهند. اما علفهای هرز هرزنامه پیچیده تر از راه حل های ساده است. موتورهای جستجو از سیگنال های متعدد استفاده می کنند زیرا این امر به سطح بالاتری از دقت منجر می شود.

محققان گزارش دادند كه 70 ٪ از سایتهای دارای سطح فشرده سازی 4.0 یا بالاتر اسپم بودند. این بدان معنی است که 30 ٪ دیگر سایت های هرزنامه نبودند. همیشه در آمار وجود دارد و 30 ٪ از سایت های غیر اسپم به همین دلیل است که موتورهای جستجو تمایل به استفاده از بیش از یک سیگنال دارند.

آیا موتورهای جستجو از تراکم پذیری استفاده می کنند؟

منطقی است که فرض کنیم موتورهای جستجو از تراکم پذیری برای شناسایی هرزنامه آشکار دست سنگین استفاده می کنند. اما همچنین منطقی است که فرض کنیم اگر موتورهای جستجو از آن استفاده کنند ، به منظور افزایش صحت معیارها از آن به همراه سایر سیگنال ها استفاده می کنند. هیچ کس نمی داند که آیا گوگل از تراکم پذیری استفاده می کند یا خیر.

آیا اثبات این است که فشرده سازی یک اسطوره سئو است؟

برخی از SEO تحقیقاتی را منتشر کرده اند که در مورد رتبه بندی هزاران سایت برای صدها کلمه کلیدی تجزیه و تحلیل می کنند. آنها دریافتند که هر دو سایت برتر و پایین رتبه دارای نسبت فشرده سازی هستند که در اصل همان نسبت فشرده سازی 2.11 بود که محققان سال 2006 در محدوده طبیعی کشف کردند.

SEO ها ادعا كردند كه نتایج ثابت می كند كه نسبت فشرده سازی اسطوره سئو است. البته این ادعا به دور از درست نیست و در اینجا دو دلیل وجود دارد.

1. میانگین نسبت فشرده سازی سایتهای عادی در سال 2006 2.11 بود ، به این معنی که میانگین آنها کشف شده به خوبی در محدوده وب سایت های عادی و غیر اسپم قرار می گیرند ، که انتظار می رود در نتایج جستجو مشاهده شود. به یاد داشته باشید ، اگر سایتی اسپم است ، قرار است از فهرست بندی مسدود شود.

2. اگر فرض کنیم که گوگل از تراکم پذیری استفاده می کند ، یک سایت باید نسبت فشرده سازی 4.0 به علاوه ارسال سیگنال های با کیفیت پایین دیگر ، برای ایجاد یک عمل الگوریتمی. اگر این اتفاق می افتد ، این سایت ها به هیچ وجه در نتایج جستجو قرار نمی گیرند زیرا آنها در شاخص قرار نمی گیرند و بنابراین راهی برای آزمایش آن با SERP ها وجود ندارد ، درست است؟

منطقی خواهد بود که فرض کنیم سایت هایی با نسبت فشرده سازی 4.0 بالا برداشته شده اند. اما ما این کار را نمی کنیم دانستن این ، یقین نیست. بنابراین ما نمی توانیم ثابت کنیم که آنها برداشته شده اند.

تنها چیزی که می دانیم این است که این مقاله تحقیق در آنجا وجود دارد که توسط دانشمندان برجسته تألیف شده است.

آیا تراکم پذیری یک اسطوره سئو است؟

تراکم پذیری ممکن است یک اسطوره سئو نباشد. اما احتمالاً این چیزی نیست که ناشران یا SEO باید نگران باشند تا زمانی که از تاکتیک های سنگین مانند پر کردن کلمات کلیدی یا صفحات برش کوکی تکراری جلوگیری کنند.

Google از De-Duplication استفاده می کند که صفحات تکراری را از فهرست آنها حذف می کند و سیگنال های PageRank را به هر صفحه ای که انتخاب می کند ، صفحه Canonical (در صورت انتخاب یکی از آنها) است. انتشار صفحات تکراری به احتمال زیاد هیچ نوع مجازات ، از جمله هر چیزی که مربوط به نسبت فشرده سازی باشد ، نخواهد بود ، زیرا ، همانطور که قبلاً ذکر شد ، موتورهای جستجو از سیگنال های انزوا استفاده نمی کنند.



منبع

مطالب مرتبط