بهروزرسانی جستجوی بینگ: نتایج سریعتر و دقیقتر
مایکروسافت بهروزرسانیهایی را برای زیرساخت جستجوی بینگ اعلام کرده است که شامل مدلهای زبان بزرگ (LLM)، مدلهای زبان کوچک (SLM) و تکنیکهای بهینهسازی جدید است.
هدف این بهروزرسانی بهبود عملکرد و کاهش هزینهها در تحویل نتایج جستجو است.
در اطلاعیه این شرکت آمده است:
«در بینگ، ما همیشه مرزهای فناوری جستجو را پیش میبریم. استفاده از مدلهای زبان بزرگ (LLM) و مدلهای زبان کوچک (SLM) نقطه عطف مهمی در افزایش قابلیتهای جستجوی ما است. در حالی که مدلهای ترانسفورماتور به خوبی به ما خدمت کردهاند، پیچیدگی فزاینده پرس و جوهای جستجو، مدلهای قدرتمندتری را ایجاب میکند.»
دستاوردهای عملکرد
استفاده از LLM در سیستم های جستجو می تواند مشکلاتی را در سرعت و هزینه ایجاد کند.
برای حل این مشکلات، بینگ SLM ها را آموزش داده است که ادعا می کند 100 برابر سریعتر از LLM هستند.
در این اطلاعیه آمده است:
خدمات LLM ممکن است گران و کند باشد. برای بهبود کارایی، مدلهای SLM را آموزش دادیم (100 برابر بهبود توان عملیاتی نسبت به LLM)، که درخواستهای جستجو را دقیقتر پردازش و درک میکنند.
Bing همچنین از NVIDIA TensorRT-LLM برای بهبود عملکرد SLM استفاده می کند.
TensorRT-LLM ابزاری است که به کاهش زمان و هزینه اجرای مدل های بزرگ در پردازنده های گرافیکی NVIDIA کمک می کند.
تأثیر بر «جستجوی عمیق»
طبق گزارش فنی مایکروسافت، ادغام فناوری TensorRT-LLM انویدیا، ویژگی «جستجوی عمیق» این شرکت را افزایش داده است.
جستجوی عمیق از SLM ها در زمان واقعی برای ارائه نتایج وب مرتبط استفاده می کند.
قبل از بهینه سازی، مدل اصلی ترانسفورماتور بینگ دارای تأخیر صدک 95 4.76 ثانیه در هر دسته (20 پرس و جو) و توان عملیاتی 4.2 پرس و جو در ثانیه در هر نمونه بود.
با TensorRT-LLM، تأخیر به 3.03 ثانیه در هر دسته کاهش یافت و توان عملیاتی به 6.6 پرس و جو در ثانیه در هر نمونه افزایش یافت.
این نشان دهنده الف است 36% کاهش تاخیر و الف 57% کاهش هزینه های عملیاتی
این شرکت بیان می کند:
«… محصول ما بر اساس ارائه بهترین نتایج ساخته شده است و ما کیفیت را برای سرعت به خطر نمی اندازیم. اینجاست که TensorRT-LLM وارد عمل میشود و زمان استنتاج مدل و در نتیجه تأخیر تجربه انتها به انتها را بدون به خطر انداختن کیفیت نتیجه کاهش میدهد.
مزایا برای کاربران بینگ
این به روز رسانی چندین مزیت بالقوه برای کاربران Bing به ارمغان می آورد:
- نتایج جستجوی سریعتر با استنتاج بهینه شده و زمان پاسخگویی سریعتر
- دقت بهبود یافته از طریق قابلیتهای پیشرفته مدلهای SLM، ارائه نتایج مرتبطتر
- کارایی هزینه، به بینگ اجازه می دهد تا در نوآوری ها و بهبودهای بیشتر سرمایه گذاری کند
چرا انتقال بینگ به مدل های LLM/SLM اهمیت دارد؟
تغییر بینگ به مدلهای LLM/SLM و بهینهسازی TensorRT میتواند بر آینده جستجو تأثیر بگذارد.
همانطور که کاربران سوالات پیچیده تری می پرسند، موتورهای جستجو باید نتایج مرتبط را بهتر درک کنند و سریع ارائه دهند. بینگ قصد دارد این کار را با استفاده از مدلهای زبان کوچکتر و تکنیکهای بهینهسازی پیشرفته انجام دهد.
در حالی که باید منتظر بمانیم و تاثیر کامل را ببینیم، حرکت بینگ زمینه را برای فصل جدیدی در جستجو فراهم می کند.
تصویر ویژه: mindea/Shutterstock