Google تأیید می کند که محتوای تولید شده توسط AI باید مورد بررسی قرار گیرد
گری ایلیز گوگل تأیید کرد که محتوای هوش مصنوعی تا زمانی که کیفیت بالا باشد خوب است. وی گفت که “انسان آفریده شده” دقیقاً روش صحیح برای توصیف سیاست محتوای هوش مصنوعی آنها نیست ، و توصیف دقیق تر “سرپرستی انسان” خواهد بود.
این سؤالات توسط Kenichi Suzuki در زمینه مصاحبه اختصاصی با Illyes پرسیده شد.
نمای کلی AI و مدل های حالت AI
Kenichi در مورد مدل های هوش مصنوعی مورد استفاده برای نمای کلی AI و حالت AI پرسید و او پاسخ داد که آنها مدل های سفارشی جمینی هستند.
ایلیس پاسخ داد:
“بنابراین همانطور که اشاره کردید ، مدلی که ما برای AIO استفاده می کنیم (برای نمای کلی AI) و برای حالت AI یک مدل جمینی سفارشی است و ممکن است به این معنی باشد که آن را متفاوت آموزش داده است. من جزئیات دقیق ، نحوه آموزش آن را نمی دانم ، اما قطعاً یک مدل سفارشی است.”
سپس Kenichi از این سؤال پرسید که آیا بررسی های AI (AIO) و حالت AI از شاخص های جداگانه ای برای زمین استفاده می کنند.
زمینی در جایی است که یک LLM پاسخ ها را به یک پایگاه داده یا یک فهرست جستجو متصل می کند تا پاسخ ها قابل اطمینان تر ، راستگوتر باشند و بر اساس حقایق قابل اثبات ، به کاهش توهم کمک کنند. در زمینه حالت AIO و AI ، پایه گذاری به طور کلی با داده های مبتنی بر وب از فهرست Google اتفاق می افتد.
سوزوکی پرسید:
“بنابراین ، آیا این بدان معنی است که بررسی های کلی AI و حالت AI از شاخص های جداگانه ای برای پایه گذاری استفاده می کنند؟”
Illyes Google پاسخ داد:
“تا آنجا که من می دانم ، Gemini ، AI Overview و AI Mode همه از Google Search برای زمینه سازی استفاده می کنند. بنابراین اساساً آنها چندین نمایش داده شده برای جستجوی Google صادر می کنند و سپس Google Search نتایج را برای آن سؤالات خاص باز می گرداند.”
Kenichi در تلاش بود تا در مورد خزنده گسترده Google پاسخی دریافت کند ، و پاسخ Illyes این بود که توضیح دهد که Google Extended Crawler بازی می کند.
“بنابراین آیا این بدان معنی است که داده های آموزش توسط حالت AIO و AI جمع آوری شده توسط Google معمولی استفاده می شود و Google گسترش یافته نیست؟”
و ایلیس پاسخ داد:
“شما باید به یاد داشته باشید که وقتی زمین زدن اتفاق می افتد ، هیچ AI درگیر نیست. بنابراین اساساً این نسلی است که تحت تأثیر Google قرار گرفته است. اما همچنین اگر Google Extended را مجاز نکنید ، Gemini نمی خواهد برای سایت شما زمین بزند.”
محتوای هوش مصنوعی در LLMS و فهرست جستجو
سؤال بعدی که ایلیز پاسخ داد این بود که آیا محتوای هوش مصنوعی منتشر شده به صورت آنلاین در حال آلاینده LLMS است. ایلیس گفت که این مشکلی برای شاخص جستجو نیست ، اما ممکن است برای LLMS مسئله ای باشد.
سوال Kenichi:
“هرچه محتوای بیشتری توسط AI ایجاد شده است ، و LLMS از آن محتوا یاد می گیرد. افکار شما در مورد این روند چیست و اشکالاتی بالقوه آن چیست؟”
ایلیس پاسخ داد:
“من نگران شاخص جستجو نیستم ، اما آموزش مدل قطعاً باید بفهمد چگونه می توان محتوایی را که توسط هوش مصنوعی تولید شده است حذف کنید. در غیر این صورت شما در یک حلقه آموزشی قرار می گیرید که واقعاً برای آموزش عالی نیست. من مطمئن نیستم که این مشکل در حال حاضر چقدر است ، یا شاید به این دلیل است که چگونه اسنادی را که در آن آموزش می دهیم انتخاب می کنیم.”
کیفیت محتوا و محتوای تولید شده توسط AI
سوزوکی سپس سوالی را در مورد کیفیت محتوا و هوش مصنوعی دنبال کرد.
او پرسید:
“بنابراین شما اهمیتی نمی دهید که چگونه محتوا ایجاد می شود … بنابراین تا زمانی که کیفیت بالا باشد؟”
Illyes تأیید کرد که توجه اصلی برای داده های آموزش LLM ، بدون در نظر گرفتن نحوه تولید آن ، کیفیت محتوا است. وی به طور خاص دقت واقعی محتوا را به عنوان یک عامل مهم ذکر کرد. یکی دیگر از عواملی که وی ذکر کرد این است که شباهت محتوا مشکل ساز است و می گوید محتوای مشابه “بسیار” نباید در فهرست جستجو باشد.
وی همچنین گفت که Google اساساً اهمیتی نمی دهد که چگونه محتوا ایجاد می شود ، اما با برخی از احتیاط ها:
“مطمئناً ، اما اگر می توانید کیفیت محتوا و صحت محتوا را حفظ کرده و از کیفیت بالایی اطمینان حاصل کنید ، از نظر فنی واقعاً مهم نیست.
مشکل شروع می شود که محتوا یا بسیار شبیه به چیزی است که قبلاً ایجاد شده است ، که امیدوارم ما قصد نداریم در فهرست خود برای آموزش به هر حال.
و سپس مشکل دوم این است که شما در حال آموزش داده های نادرست هستید و احتمالاً خطرناک تر است زیرا در این صورت شما شروع به معرفی تعصب می کنید و آنها شروع به معرفی داده های ضد اکتیو در مدل های خود می کنند.
تا زمانی که کیفیت محتوا زیاد باشد ، که به طور معمول امروزه نیاز به بررسی محتوای تولید شده دارد ، برای آموزش مدل خوب است. “
انسان محتوای تولید شده توسط AI را مرور کرد
ایلیس پاسخ خود را ادامه داد ، این بار با تمرکز بر محتوای تولید شده توسط AI که توسط یک انسان بررسی می شود. وی بر بررسی انسان تأکید می کند نه به عنوان کاری که ناشران باید در محتوای خود سیگنال دهند ، بلکه به عنوان کاری که ناشران باید قبل از انتشار محتوا انجام دهند.
باز هم ، “بررسی بشر” به معنای افزودن متن در صفحه وب نیست که محتوا مورد بررسی قرار می گیرد. این یک سیگنال قابل اعتماد نیست و این چیزی نیست که او پیشنهاد کرد.
این همان چیزی است که ایلیس گفت:
“من فکر نمی کنم که به زودی می خواهیم راهنمایی های خود را تغییر دهیم در مورد اینکه آیا شما باید آن را مرور کنید یا نه.
بنابراین اساساً وقتی می گوییم انسان است ، فکر می کنم کلمه انسان ایجاد شده اشتباه است. در اصل ، باید از نظر انسانی باشد. بنابراین اساساً کسی نظارت بر ویراستاری بر محتوای خود داشت و تأیید کرد که در واقع صحیح و دقیق است. “
پیشخدمت
سیاست Google ، همانطور که توسط گری ایلیز خلاصه شده است ، این است که اگر در واقع دقیق ، اصلی و توسط انسان بررسی شود ، محتوای تولید شده توسط AI برای آموزش جستجو و مدل خوب است. این بدان معنی است که ناشران باید نظارت بر ویراستاری را برای تأیید صحت واقعی محتوا اعمال کنند و اطمینان حاصل کنند که “بسیار” مشابه محتوای موجود نیست.
مصاحبه را تماشا کنید:
https://www.youtube.com/watch؟v=pstff6tcqxk
تصویر برجسته توسط Shutterstock/Supatman