فایل robots txt چیست و چه تاثیری در سئو سایت دارد؟ 2023 | xeroseo

بهترین راه برای ارسال یک سیگنال به موتورهای جستجو به منظور این که یک صفحه نباید ایندکس شود این است که از تگ meta robots یا X-Robots-Tag استفاده کنید. توصیه من به شما این است که برای بهبود سئو سایت خود همیشه از فایل robots.txt استفاده کنید. نحوه عملکرد موتورهای جستجو در خصوص دستورالعمل Crawl-delay متفاوت می باشد. کامنت ها معمولا با استفاده از علامت # در این فایل نمایش داده می شوند و می توانند یک خط جداگانه را به خود اختصاص داده و یا بعد از یک دستورالعمل و در همان خط در فایل robots.txt قرار گیرند. یکی از نکات بسیار مهم در خصوص فایل robots.txt این است که برای هر دستورالعمل یک خط جداگانه را در نظر بگیرید. در واقع در این مثال موتورهای جستجو به لینک گفته شده دسترسی پیدا می کنند.

  • دستور Disallow به ربات‌ها می‌گوید که چه فولدرهایی از سایت شمارا نباید بررسی کنند.
  • درواقع در گزارش سئو شما می‌توانید از روند فعالیت‌های انجام‌گرفته و بازخوردهای آن اطلاعاتی به دست بیاورید و البته مهم‌ترین کارها در بهینه سازی سایت است.
  • فایل robots.txt باید یک فایل متنی کدگذاری شده UTF-8 باشد (که شامل ASCII است).
  • تعیین تأخیر خزیدن به منظور جلوگیری از بارگیری بیش از حد سرورهای سایت، زمانی‌که ربات‌های خزنده در یک زمان چندین URL را بارگیری می‌کنند.
اما وقتی مجله خبری زیرو سئوهای مربوطه را در صفحات خود جاسازی می کنید، ممکن است گوگل پیشنهاد دهد که به دلیل اینکه محتوای جایگذاری شده بدون فهرست است، این کار را انجام ندهید. صفحه ای را که ما به عنوان مثال در آن کدهای مربوطه را جایگذاری می کنیم به طور حتم ایندکس خواهند شد. در این بخش، گوگل به شما کنترل بیشتری می دهد تا بگویید، صفحه ای را که در آن کدهای مربوطه جایگذاری شده اند را چگونه فهرست کنید.

حذف کامل یک صفحه از نتایج گوگل به کمک فایل robots.txt

اجازه دسترسی به یک خزنده را بدهیدفقط googlebot-news ممکن است کل سایت را بخزد. فایل robots.txt باید یک فایل متنی ساده با کدگذاریUTF-8باشد و خطوط باید با CR یا CR/LF یا LF از هم جدا شوند. موارد خاصی نیز وجود دارد که نمی‌خواهید هیچ بودجه خزشی را برای بازدید گوگل در صفحاتی با تگ noindex هدر دهید. اگر برای ایندکس کردن تمام صفحات خود با مشکل مواجه هستید، ممکن است با مشکل بودجه crawl مواجه شوید.

هنگام درخواست فایل robots.txt، کد وضعیت HTTP پاسخ سرور بر نحوه استفاده از فایل robots.txt توسط خزنده‌های Google تأثیر می‌گذارد. جدول زیر نحوه برخورد ربات Googlebot با فایل‌های robots.txt را برای کدهای وضعیت مختلف HTTP خلاصه می‌کند. نقش اصلی آن بهینه سازی نرخ خزش است و اینکه به ربات ها بگویید کجا را کراول کنند و کجا‌ را کراول نکنند تا فرصت کراول برای صفحات مهم تر ایجاد شود. دستورات فایل ربات شما از ایندکس جلوگیری نمی کند و می بایست مابقی تنظیمات وردپرس را برای این مورد بررسی نمایید. من مشکلی برام پیش اومده من زمانی داخل روبوتس دات تی اکس تی دسترسی ربات های گوگل رو به سایت بسته بودم. الان به حالت دیفالت برگردوندم و دسترسی همه بازه اما همچنان گوگل سرچ کنسول به من اخطار میده که ربات ها توسط روبوتس دات تی اکس تی بلاک شدن و صفحات کراول نمیشن.

ربات‌ها به کوچک یا بزرگ بودن دستورات حساس هستند

دستور بالا به این معنا است که “دستورات فایل، برای همه ربات‌های جستجوگر یکسان عمل می‌کند”. از آنجایی که منبع محدودی از خزیدن دارید، می‌توانید robots.txt را نصب کنید تا از صفحات اضافی از طریق Googlebot جلوگیری کرده و آنها را به موارد مهم معرفی کنید. دستور دیر خزیدن یا crawl-delay، مقداریست که توسط برخی از ربات‌های خزنده وب پشتیبانی می‌شود.

http://atours.ir

مطالب مرتبط