مراقب ترافیک جعلی Googlebot باشید


مارتین اسپلیت، مدافع توسعه‌دهنده گوگل، به صاحبان وب‌سایت هشدار می‌دهد که مراقب ترافیکی باشند که به نظر می‌رسد از Googlebot می‌آید. بسیاری از درخواست‌هایی که وانمود می‌کنند ربات گوگل هستند، در واقع از اسکراپرهای شخص ثالث هستند.

او این موضوع را در آخرین قسمت از مجموعه‌های Google SEO Made Easy به اشتراک گذاشت و تأکید کرد که «هر کسی که ادعا می‌کند Googlebot است واقعاً Googlebot نیست».

چرا این مهم است؟

خزنده های جعلی می توانند تجزیه و تحلیل ها را تحریف کنند، منابع را مصرف کنند و ارزیابی دقیق عملکرد سایت شما را دشوار کنند.

در اینجا نحوه تمایز بین ترافیک قانونی Googlebot و فعالیت خزنده جعلی وجود دارد.

روش‌های تأیید Googlebot

شما می توانید ترافیک واقعی Googlebot را از خزنده های جعلی با بررسی الگوهای ترافیک کلی به جای درخواست های غیر معمول تشخیص دهید.

ترافیک واقعی Googlebot تمایل دارد که فرکانس درخواست، زمان بندی و رفتار ثابتی داشته باشد.

اگر به فعالیت جعلی Googlebot مشکوک هستید، Splitt توصیه می کند از ابزارهای Google زیر برای تأیید آن استفاده کنید:

ابزار بازرسی URL (کنسول جستجو)

  • یافتن محتوای خاص در HTML ارائه شده تأیید می کند که Googlebot می تواند با موفقیت به صفحه دسترسی پیدا کند.
  • قابلیت آزمایش زنده را برای تأیید وضعیت دسترسی فعلی ارائه می دهد.

تست نتایج غنی

  • به عنوان یک روش تأیید جایگزین برای دسترسی Googlebot عمل می کند
  • نشان می دهد که Googlebot چگونه صفحه را رندر می کند
  • حتی بدون دسترسی به کنسول جستجو نیز قابل استفاده است

گزارش آمار خزیدن

  • اطلاعات دقیق پاسخ سرور را به طور خاص از درخواست های تأیید شده Googlebot نشان می دهد
  • به شناسایی الگوهای رفتار قانونی Googlebot کمک می کند

یک محدودیت کلیدی وجود دارد که شایان ذکر است: این ابزارها آنچه را که Googlebot واقعی می‌بیند و انجام می‌دهد تأیید می‌کند، اما آنها مستقیماً جعل‌کنندگان را در گزارش‌های سرور شما شناسایی نمی‌کنند.

برای محافظت کامل در برابر Googlebots جعلی، باید:

  • گزارش‌های سرور را با محدوده IP رسمی Google مقایسه کنید
  • اجرای تأیید جستجوی معکوس DNS
  • از ابزارهای بالا برای ایجاد رفتار قانونی Googlebot استفاده کنید

نظارت بر پاسخ های سرور

اسپلیت همچنین بر اهمیت نظارت بر پاسخ‌های سرور به درخواست‌های خزیدن تأکید کرد، به ویژه:

  • خطاهای سری 500
  • واکشی خطاها
  • تایم اوت ها
  • مشکلات DNS

این مسائل می تواند به طور قابل توجهی بر کارایی خزیدن و دید جستجو برای وب سایت های بزرگتر میزبان میلیون ها صفحه تأثیر بگذارد.

اسپلیت می گوید:

به پاسخ‌هایی که سرورتان به Googlebot داده است، به ویژه تعداد بالای 500 پاسخ، خطاهای واکشی، زمان‌بندی، مشکلات DNS و موارد دیگر توجه کنید.»

او خاطرنشان کرد که در حالی که برخی از خطاها گذرا هستند، مسائل پایدار “ممکن است بخواهند بیشتر بررسی شوند.”

اسپلیت استفاده از تجزیه و تحلیل گزارش سرور را برای تشخیص پیچیده‌تر پیشنهاد کرد، اگرچه او اذعان داشت که این یک کار اساسی نیست.

با این حال، او بر ارزش آن تأکید کرد و خاطرنشان کرد که «نگاه کردن به گزارش‌های وب سرور شما… راهی قدرتمند برای درک بهتر آنچه در سرور شما اتفاق می‌افتد است».

تاثیر بالقوه

فراتر از امنیت، ترافیک جعلی Googlebot می تواند بر عملکرد وب سایت و تلاش های سئو تأثیر بگذارد.

اسپلیت تأکید کرد که دسترسی به وب سایت در یک مرورگر، دسترسی به Googlebot را تضمین نمی کند و به موانع احتمالی مختلفی اشاره کرد، از جمله:

  • محدودیت های Robots.txt
  • تنظیمات فایروال
  • سیستم های حفاظتی ربات
  • مشکلات مسیریابی شبکه

نگاه کردن به جلو

ترافیک جعلی Googlebot می‌تواند آزاردهنده باشد، اما Splitt می‌گوید که نباید زیاد نگران موارد نادر باشید.

فرض کنید فعالیت خزنده جعلی مشکل ساز می شود یا از قدرت سرور بیش از حد استفاده می کند. در این صورت، می‌توانید اقداماتی مانند محدود کردن نرخ درخواست‌ها، مسدود کردن آدرس‌های IP خاص یا استفاده از روش‌های تشخیص بهتر ربات را انجام دهید.

برای اطلاعات بیشتر در مورد این موضوع، ویدیوی کامل زیر را ببینید:


تصویر ویژه: eamesBot/Shutterstock



منبع

مطالب مرتبط