فایل robots txt چیست؟ آموزش ساخت فایل robots.txt فایل ربات سایت | xeroseo

در این موقعیت سرعت لود صفحات سایت پایین میاد و این موضوع تاثیر منفی بر سئو سایت داره. بنابراین، برای اینکه از این مشکل جلوگیری بشه، باید دسترسی ربات ها رو محدود کرد. به همین دلیل سئوکاران و وبمسترها از فایل Robots.txt در سایت خودشون استفاده می کنند تا سرعت سایت خودشون کاهش پیدا نکنه. Robot.txt یک فایل متنی است که برای سئو استفاده می‌شود و حاوی دستوراتی برای روبات‌های فهرست‌کننده موتورهای جستجو است که صفحاتی را مشخص می‌کند که می‌توانند یا نمی‌توانند ایندکس شوند.

http://atours.irاین قضیه از الگوریتم پاندای مجله خبری زیرو سئو شروع شد و به راحتی می توان به آن اشاره کرد که هرگز فایل های سی اس اس یا جاوا اسکریپت شما را مورد بررسی قرار ندهد. اگر از افزونه یوآست در سئوی وب سایت وردپرسی خود استفاده می کنید، پیشنهاد می کنیم به نوشته نحوه افزودن کلمه کلیدی و توضیحات متا در وردپرس نیز نگاهی بیاندازید. کلیه سایت‌ها برای ایندکس شدن توسط موتورهای جستجوی به فایل robots.txt نیاز دارند. اگر سایت وردپرسی شما دارای فایل robots.txt نباشد، موتورهای جستجو تمام وبسایت شما را پیمایش و فهرست می‌کنند که در این صورت نمی‌توانید به موتورهای جستجو دستور دهید که نباید کدام صفحات و فایل‌ها را پیمایش کنند. موتور جستجو قبل از آنکه وارد سایتی شود، ابتدا فایل robots.txt را از سرور درخواست می کند تا از تمام محدودیت های پیش روی خود در آن سایت آگاه شود. استفاده از فایل robots.txt در افزایش سئو و بهینه سازی سایت کاربرد فراوانی دارد با این فایل می توانید ربات یا crawler های موتور جستجو را کنترل کنید که به کدام شاخه یا فایل ها دسترسی داشته، یا نداشته باشند.

نمونه هایی از آدرس های معتبر و غیرمعتبر در فایل robots.txt

همچنین میتونین دایرکتوری افزونه وردپرس رو disallow کنین تا موتورهای جستجو این صفحه رو شاخص گذاری نکنن. این امنیت وردپرس شما رو بالاتر میبره چون ممکنه نفوذگر از افزونه که راهی برای نفوذ داره استفاده بکنه. فایل robots.txt از بخش های مختلفی تشکیل شده است که در زمان پیاده سازی باید به تمامی این بخش ها توجه داشته باشید و سعی کنید که جزئی ترین نکات را نیز در زمان پیاده سازی رعایت کنید. دقت کنید که حذف کردن این لینک ها از گوگل امکان پذیر است و شما با استفاده از کنسول جستجوی گوگل می توانید به راحتی اقدام به حذف آنها کنید.

کاربرد فایل Robots.txt در سئو؟ (قسمت هشتم)

در صورتی که سایت شما دارای ساب دامین است لازم است هریک از این ساب دامین‌ها دارای فایل robots.txt مختص خود باشند. بعنوان مثال nardebangroup.com فایل خودش را دارد و my.nardebangroup.com هم فایل robots.txt جدا دارد. هر robots.txt فقط می‌تواند یک منبع را پوشش دهد.مثلا برای یک وبسایت که دارای چندین زیر دامنه است هر زیر دامنه باید یک robots.txt داشته باشند.

  • با مسدود کردن صفحات بی‌اهمیت با robots.txt، گوگل بات می‌تواند بیشتر بودجه خزشِ شما را صرف صفحاتی کند که واقعاً مهم هستند.
  • خیلی‌ها فکر می‌کنند که از طریق فایل‌های ربات از اطلاعات محرمانه‌ی خود مراقبت می‌کنند در حالی که کاملا برعکس است و برخی ربات‌ها می‌توانند از این اطلاعات شما سوءاستفاده کنند.
  • البته الان توی گوگل انتهای لینک هایی که noindex شدند کلمه feed درج شده.
  • برخی وب سایت‌های سریع ممکن است عملکرد بدتری نسبت به وب سایت های کند داشته…

زمانی که می‌خواهید یک URL را مسدود یا اجازه ورود دهید، فایل‌های Robots.txt کمی پیچیده می‌شوند چون با استفاده از تطبیق الگوها (Pattern-matching) می‌توانند طیف وسیعی از URLها را پوشش دهند. علاوه بر این شما می توانید با خالی گذاشتن فایل نیز این کار را انجام دهید. در صفحه ظاهر شده تنها یک گزینه وجود دارد که می توانید آن را تغییر دهید و این گزینه Crawl rate می باشد. با استفاده از اسلایدری که در کنار آن قرار دارد شما می توانید مقدار دلخواه خود را روی این ویژگی تنظیم کنید. Wildcard را نه تنها می توان برای تعریف user-agent مورد استفاده قرار داد بلکه می توان از آن برای تطبیق لینک ها نیز استفاده کرد.

برای حذف کامل صفحات از نتایج گوگل به جای فایل robots.txt از تگ noindex استفاده کنید

مطالب مرتبط