به‌روزرسانی جستجوی بینگ: نتایج سریع‌تر و دقیق‌تر


مایکروسافت به‌روزرسانی‌هایی را برای زیرساخت جستجوی بینگ اعلام کرده است که شامل مدل‌های زبان بزرگ (LLM)، مدل‌های زبان کوچک (SLM) و تکنیک‌های بهینه‌سازی جدید است.

هدف این به‌روزرسانی بهبود عملکرد و کاهش هزینه‌ها در تحویل نتایج جستجو است.

در اطلاعیه این شرکت آمده است:

«در بینگ، ما همیشه مرزهای فناوری جستجو را پیش می‌بریم. استفاده از مدل‌های زبان بزرگ (LLM) و مدل‌های زبان کوچک (SLM) نقطه عطف مهمی در افزایش قابلیت‌های جستجوی ما است. در حالی که مدل‌های ترانسفورماتور به خوبی به ما خدمت کرده‌اند، پیچیدگی فزاینده پرس و جوهای جستجو، مدل‌های قدرتمندتری را ایجاب می‌کند.»

دستاوردهای عملکرد

استفاده از LLM در سیستم های جستجو می تواند مشکلاتی را در سرعت و هزینه ایجاد کند.

برای حل این مشکلات، بینگ SLM ها را آموزش داده است که ادعا می کند 100 برابر سریعتر از LLM هستند.

در این اطلاعیه آمده است:

خدمات LLM ممکن است گران و کند باشد. برای بهبود کارایی، مدل‌های SLM را آموزش دادیم (100 برابر بهبود توان عملیاتی نسبت به LLM)، که درخواست‌های جستجو را دقیق‌تر پردازش و درک می‌کنند.

Bing همچنین از NVIDIA TensorRT-LLM برای بهبود عملکرد SLM استفاده می کند.

TensorRT-LLM ابزاری است که به کاهش زمان و هزینه اجرای مدل های بزرگ در پردازنده های گرافیکی NVIDIA کمک می کند.

تأثیر بر «جستجوی عمیق»

طبق گزارش فنی مایکروسافت، ادغام فناوری TensorRT-LLM انویدیا، ویژگی «جستجوی عمیق» این شرکت را افزایش داده است.

جستجوی عمیق از SLM ها در زمان واقعی برای ارائه نتایج وب مرتبط استفاده می کند.

قبل از بهینه سازی، مدل اصلی ترانسفورماتور بینگ دارای تأخیر صدک 95 4.76 ثانیه در هر دسته (20 پرس و جو) و توان عملیاتی 4.2 پرس و جو در ثانیه در هر نمونه بود.

با TensorRT-LLM، تأخیر به 3.03 ثانیه در هر دسته کاهش یافت و توان عملیاتی به 6.6 پرس و جو در ثانیه در هر نمونه افزایش یافت.

این نشان دهنده الف است 36% کاهش تاخیر و الف 57% کاهش هزینه های عملیاتی

این شرکت بیان می کند:

«… محصول ما بر اساس ارائه بهترین نتایج ساخته شده است و ما کیفیت را برای سرعت به خطر نمی اندازیم. اینجاست که TensorRT-LLM وارد عمل می‌شود و زمان استنتاج مدل و در نتیجه تأخیر تجربه انتها به انتها را بدون به خطر انداختن کیفیت نتیجه کاهش می‌دهد.

مزایا برای کاربران بینگ

این به روز رسانی چندین مزیت بالقوه برای کاربران Bing به ارمغان می آورد:

  • نتایج جستجوی سریعتر با استنتاج بهینه شده و زمان پاسخگویی سریعتر
  • دقت بهبود یافته از طریق قابلیت‌های پیشرفته مدل‌های SLM، ارائه نتایج مرتبط‌تر
  • کارایی هزینه، به بینگ اجازه می دهد تا در نوآوری ها و بهبودهای بیشتر سرمایه گذاری کند

چرا انتقال بینگ به مدل های LLM/SLM اهمیت دارد؟

تغییر بینگ به مدل‌های LLM/SLM و بهینه‌سازی TensorRT می‌تواند بر آینده جستجو تأثیر بگذارد.

همانطور که کاربران سوالات پیچیده تری می پرسند، موتورهای جستجو باید نتایج مرتبط را بهتر درک کنند و سریع ارائه دهند. بینگ قصد دارد این کار را با استفاده از مدل‌های زبان کوچک‌تر و تکنیک‌های بهینه‌سازی پیشرفته انجام دهد.

در حالی که باید منتظر بمانیم و تاثیر کامل را ببینیم، حرکت بینگ زمینه را برای فصل جدیدی در جستجو فراهم می کند.


تصویر ویژه: mindea/Shutterstock



منبع

مطالب مرتبط