خزنده‌های هوش مصنوعی 28 درصد از ترافیک Googlebot را تشکیل می‌دهند، یافته‌های مطالعه


گزارشی که توسط Vercel منتشر شده است، تأثیر رو به رشد ربات های هوش مصنوعی در خزیدن وب را برجسته می کند.

GPTBot OpenAI و Claude Anthropic تقریباً 1 میلیارد درخواست ماهانه در سراسر شبکه Vercel ایجاد می کنند.

داده ها نشان می دهد که GPTBot در ماه گذشته 569 میلیون درخواست داشته است، در حالی که کلود 370 میلیون درخواست داشته است.

علاوه بر این، PerplexityBot 24.4 میلیون واکشی و AppleBot 314 میلیون درخواست اضافه کرد.

این خزنده‌های هوش مصنوعی با هم تقریباً نشان‌دهنده هستند 28% از حجم کل Googlebot که 4.5 میلیارد واکشی است.

در اینجا به معنای این موضوع برای SEO است.

یافته های کلیدی در مورد خزنده های هوش مصنوعی

تجزیه و تحلیل الگوهای ترافیک در شبکه Vercel و معماری های مختلف وب را بررسی کرد. برخی از ویژگی های کلیدی خزنده های هوش مصنوعی را پیدا کرد:

  • خزنده های اصلی هوش مصنوعی جاوا اسکریپت را رندر نمی کنند، اگرچه فایل های جاوا اسکریپت را می کشند.
  • خزنده های هوش مصنوعی اغلب ناکارآمد هستند و ChatGPT و کلود هزینه می کنند 34% از درخواست های آنها در 404 صفحه.
  • نوع محتوایی که این خزنده ها روی آن تمرکز می کنند متفاوت است. ChatGPT HTML را در اولویت قرار می دهد (57.7٪، در حالی که کلود بیشتر بر روی تصاویر تمرکز می کند (35.17٪).

توزیع جغرافیایی

برخلاف موتورهای جستجوی سنتی که از چندین منطقه کار می کنند، خزنده های هوش مصنوعی در حال حاضر حضور متمرکز ایالات متحده را حفظ می کنند:

  • ChatGPT از Des Moines (آیووا) و Phoenix (آریزونا) کار می کند.
  • کلود از کلمبوس (اوهایو) کار می کند

همبستگی سالنامه وب

این یافته‌ها با داده‌های به اشتراک‌گذاشته‌شده در فصل SEO Web Almanac همخوانی دارند، که همچنین به حضور رو به رشد خزنده‌های هوش مصنوعی اشاره می‌کند.

بر اساس این گزارش، وب‌سایت‌ها اکنون از فایل‌های robots.txt برای تنظیم قوانینی برای ربات‌های هوش مصنوعی استفاده می‌کنند و به آنها می‌گویند که چه چیزی می‌توانند یا نمی‌توانند بخزند.

GPTBot مهمترین ربات است که در آن ظاهر می شود 2.7٪ از سایت های موبایل مورد مطالعه ربات Common Crawl که اغلب برای جمع‌آوری داده‌های آموزشی برای مدل‌های زبان استفاده می‌شود، اغلب مورد توجه قرار می‌گیرد.

هر دو گزارش تاکید می کنند که صاحبان وب سایت باید با نحوه رفتار خزنده های هوش مصنوعی سازگار شوند.

3 راه برای بهینه سازی برای خزنده های هوش مصنوعی

بر اساس داده‌های اخیر Vercel و Web Almanac، در اینجا سه ​​راه برای بهینه‌سازی برای خزنده‌های هوش مصنوعی وجود دارد.

1. رندر سمت سرور

خزنده های هوش مصنوعی جاوا اسکریپت را اجرا نمی کنند. این بدان معنی است که هر محتوایی که به رندر سمت مشتری متکی باشد ممکن است نامرئی باشد.

اقدامات توصیه شده:

  • اجرای رندر سمت سرور برای محتوای مهم
  • اطمینان حاصل کنید که محتوای اصلی، متا اطلاعات و ساختارهای ناوبری در HTML اولیه وجود دارد
  • در صورت امکان از تولید سایت ایستا یا بازسازی استاتیک افزایشی استفاده کنید

2. ساختار محتوا و تحویل

داده‌های Vercel ترجیحات نوع محتوای متمایز را در بین خزنده‌های هوش مصنوعی نشان می‌دهد:

ChatGPT:

  • محتوای HTML را در اولویت قرار می دهد (57.70%)
  • 11.50 درصد از واکشی ها را صرف فایل های جاوا اسکریپت می کند

کلود:

  • به شدت بر روی تصاویر تمرکز می کند (35.17%)
  • 23.84 درصد واکشی ها را به فایل های جاوا اسکریپت اختصاص می دهد

توصیه های بهینه سازی:

  • محتوای HTML را به طور واضح و معنایی ساختار دهید
  • تحویل تصویر و ابرداده را بهینه کنید
  • شامل متن جایگزین توصیفی برای تصاویر
  • اجرای سلسله مراتب هدر مناسب

3. ملاحظات فنی

نرخ بالای 404 از خزنده‌های هوش مصنوعی به این معنی است که باید این ملاحظات فنی را در ذهن خود نگه دارید:

  • نقشه های سایت را به روز نگه دارید
  • زنجیره های تغییر مسیر مناسب را پیاده سازی کنید
  • از الگوهای URL ثابت استفاده کنید
  • ممیزی منظم خطاهای 404

نگاه کردن به جلو

برای بازاریابان جستجو، پیام واضح است: چت ربات‌های هوش مصنوعی نیروی جدیدی در خزیدن وب هستند و سایت‌ها باید SEO خود را بر این اساس تطبیق دهند.

اگرچه ربات‌های هوش مصنوعی ممکن است در حال حاضر به اطلاعات ذخیره‌شده یا تاریخ‌دار متکی باشند، ظرفیت آن‌ها برای تجزیه محتوای تازه از سراسر وب افزایش می‌یابد.

می‌توانید با رندر سمت سرور، ساختارهای URL تمیز و نقشه‌های سایت به‌روز شده، اطمینان حاصل کنید که محتوایتان خزیده شده و فهرست‌بندی می‌شود.


تصویر ویژه: tete_escape/Shutterstock



منبع

مطالب مرتبط