آیا استفاده ChatGPT از محتوای وب منصفانه است؟


مدل‌های زبان بزرگ (LLM) مانند ChatGPT با استفاده از منابع اطلاعاتی متعدد، از جمله محتوای وب، آموزش می‌دهند. این داده‌ها اساس خلاصه‌های آن محتوا را در قالب مقالاتی تشکیل می‌دهد که بدون ذکر منبع یا سود به کسانی که محتوای اصلی مورد استفاده برای آموزش ChatGPT را منتشر کرده‌اند، تولید می‌شوند.

موتورهای جستجو محتوای وب سایت (به نام خزیدن و نمایه سازی) را دانلود می کنند تا پاسخ ها را در قالب پیوندهایی به وب سایت ها ارائه دهند.

ناشران وب سایت می توانند از خزیدن و فهرست بندی محتوای خود توسط موتورهای جستجو از طریق پروتکل حذف روبات ها که معمولاً به آن Robots.txt می گویند، انصراف دهند.

پروتکل محرومیت روبات ها یک استاندارد رسمی اینترنتی نیست، اما استانداردی است که خزنده های وب قانونی از آن تبعیت می کنند.

آیا ناشران وب باید بتوانند از پروتکل Robots.txt برای جلوگیری از استفاده مدل های زبان بزرگ از محتوای وب سایت خود استفاده کنند؟

مدل های زبان بزرگ از محتوای وب سایت بدون ذکر منبع استفاده می کنند

برخی از کسانی که با بازاریابی جستجو درگیر هستند از نحوه استفاده از داده های وب سایت برای آموزش ماشین ها بدون ارائه هیچ چیزی، مانند تأیید یا ترافیک، ناراحت هستند.

Hans Petter Blindheim (نمایه LinkedIn)، کارشناس ارشد در Curamando نظرات خود را با من به اشتراک گذاشت.

هانس نظر داد:

زمانی که نویسنده ای پس از آموختن چیزی از یک مقاله در سایت شما چیزی می نویسد، اغلب به اثر اصلی شما لینک نمی دهد زیرا اعتبار و احترام حرفه ای را ارائه می دهد.

به آن استناد می گویند.

اما مقیاسی که ChatGPT در آن محتوا را جذب می‌کند و چیزی را پس نمی‌دهد، آن را هم از Google و هم از مردم متمایز می‌کند.

یک وب سایت به طور کلی با یک دستورالعمل تجاری ایجاد می شود.

گوگل به افراد کمک می‌کند محتوا را پیدا کنند و ترافیکی را ارائه می‌کنند که برای آن سود متقابل دارد.

اما اینطور نیست که مدل های زبان بزرگ برای استفاده از محتوای شما از شما اجازه بگیرند، آنها فقط از آن به معنایی گسترده تر از آنچه در هنگام انتشار محتوای شما انتظار می رفت استفاده می کنند.

و اگر مدل‌های زبان هوش مصنوعی در ازای آن ارزشی را ارائه نمی‌دهند، چرا ناشران باید به آنها اجازه دهند محتوا را بخزند و استفاده کنند؟

آیا استفاده آنها از محتوای شما با استانداردهای استفاده منصفانه مطابقت دارد؟

وقتی ChatGPT و مدل‌های ML/AI خود گوگل بدون اجازه محتوای شما را آموزش می‌دهند، آنچه را که یاد می‌گیرد در آنجا می‌چرخاند و از آن استفاده می‌کند در حالی که مردم را از وب‌سایت‌های شما دور نگه می‌دارد – آیا صنعت و همچنین قانون‌گذاران نباید سعی کنند با اجبار کنترل اینترنت را پس بگیرند. آنها برای انتقال به یک مدل “انتخاب کردن”؟

نگرانی هایی که هانس بیان می کند منطقی است.

با توجه به سرعت پیشرفت فناوری، آیا قوانین مربوط به استفاده منصفانه باید بازنگری و به روز شوند؟

از جان ریزوی، وکیل ثبت اختراع (نمایه لینکدین) که دارای گواهینامه حقوق مالکیت معنوی است، پرسیدم، اگر قوانین کپی رایت اینترنت قدیمی باشد.

جان پاسخ داد:

«بله، بدون شک.

یکی از دلایل اصلی اختلاف در مواردی مانند این، این واقعیت است که قانون به ناچار بسیار کندتر از تکنولوژی تکامل می‌یابد.

در دهه 1800، این شاید چندان اهمیتی نداشت، زیرا پیشرفت‌ها نسبتاً آهسته بود و بنابراین دستگاه‌های قانونی کم و بیش برای تطبیق با آن‌ها مجهز بودند.

با این حال، امروزه پیشرفت‌های فن‌آوری بسیار فراتر از توانایی قانون برای ادامه‌دادن است.

به سادگی پیشرفت های زیادی وجود دارد و قطعات متحرک بسیار زیادی وجود دارد که نمی توان قانون را رعایت کرد.

از آنجایی که در حال حاضر، عمدتاً توسط افرادی که به سختی در زمینه‌های فناوری مورد بحث ما در اینجا بحث می‌کنیم، تشکیل و اداره می‌شود، این قانون مجهز یا ساختار ضعیفی برای همگام شدن با فناوری است… و ما باید در نظر بگیریم که این یک کاملاً نیست. چیز بد.

بنابراین، از یک جهت، بله، قانون مالکیت فکری اگر حتی مدعی است، چه برسد به اینکه امیدوار باشد، همگام با پیشرفت‌های فناوری باشد، باید تکامل یابد.

مشکل اصلی ایجاد تعادل بین راه‌هایی است که می‌توان از اشکال مختلف فناوری استفاده کرد و در عین حال از دست‌اندازی آشکار یا سانسور آشکار برای منافع سیاسی پوشانده شده در نیات خیرخواهانه خودداری کرد.

قانون همچنین باید مراقب باشد که علیه استفاده‌های احتمالی از فناوری به‌طور گسترده‌ای قانونی وضع نشود تا هر گونه منافع بالقوه‌ای که ممکن است از آنها حاصل شود خفه شود.

شما به راحتی می توانید با اصلاحیه اول و هر تعداد پرونده حل شده که مشخص می کند مالکیت معنوی چگونه، چرا و تا چه میزان و توسط چه کسی می تواند استفاده شود، مخالفت کنید.

و تلاش برای تجسم هر استفاده قابل تصور از فناوری سالها یا دهه ها قبل از اینکه چارچوب وجود داشته باشد تا آن را قابل دوام یا حتی ممکن کند، یک کار احمقانه بسیار خطرناک خواهد بود.

در شرایطی مانند این، قانون واقعاً نمی‌تواند به نحوه استفاده از فناوری واکنش نشان دهد… نه لزوماً آنطور که در نظر گرفته شده است.

به احتمال زیاد این به این زودی ها تغییر نخواهد کرد، مگر اینکه به یک فلات فناوری عظیم و غیرمنتظره برخورد کنیم که به قانون اجازه دهد تا به رویدادهای جاری برسد.”

بنابراین به نظر می رسد که موضوع قوانین کپی رایت ملاحظات زیادی در مورد نحوه آموزش هوش مصنوعی دارد، پاسخ ساده ای وجود ندارد.

OpenAI و Microsoft Sued

یک مورد جالب که اخیراً تشکیل شده است، موردی است که در آن OpenAI و مایکروسافت از کد منبع باز برای ایجاد محصول CoPilot خود استفاده کردند.

مشکل استفاده از کد منبع باز این است که مجوز Creative Commons نیاز به ذکر منبع دارد.

بر اساس مقاله ای که در یک مجله علمی منتشر شده است:

شاکیان ادعا می‌کنند که OpenAI و GitHub یک محصول تجاری به نام Copilot را برای ایجاد کد تولیدی با استفاده از کدهای قابل دسترس عموم که در ابتدا تحت مجوزهای مختلف به سبک «متن باز» در دسترس قرار گرفته بود، جمع‌آوری و توزیع کردند که بسیاری از آنها شامل الزامات انتساب هستند.

همانطور که GitHub بیان می کند، «…[t]GitHub Copilot با میلیاردها خط کد، درخواست‌های زبان طبیعی را به پیشنهادهای کدنویسی در ده‌ها زبان تبدیل می‌کند.

ظاهراً محصول حاصل هیچ اعتباری را برای سازندگان اصلی حذف کرده است.»

نویسنده آن مقاله، که یک متخصص حقوقی در موضوع حق چاپ است، نوشت که بسیاری مجوزهای Creative Commons منبع باز را “رایگان برای همه” می دانند.

برخی نیز ممکن است این عبارت را در نظر بگیرند رایگان برای همه یک توصیف منصفانه از مجموعه داده‌های متشکل از محتوای اینترنتی خراشیده شده و برای تولید محصولات هوش مصنوعی مانند ChatGPT استفاده می‌شود.

پیشینه LLM ها و مجموعه داده ها

مدل های زبان بزرگ بر روی مجموعه داده های متعددی از محتوا آموزش می بینند. مجموعه داده‌ها می‌توانند شامل ایمیل‌ها، کتاب‌ها، داده‌های دولتی، مقالات ویکی‌پدیا و حتی مجموعه داده‌های ایجاد شده از وب‌سایت‌های پیوند شده از پست‌هایی در Reddit باشند که حداقل سه رأی موافق دارند.

بسیاری از مجموعه داده های مرتبط با محتوای اینترنت منشأ خود را در خزیدن ایجاد شده توسط یک سازمان غیرانتفاعی به نام Common Crawl دارند.

مجموعه داده آنها، مجموعه داده Common Crawl، برای دانلود و استفاده رایگان در دسترس است.

مجموعه داده Common Crawl نقطه شروع بسیاری از مجموعه داده های دیگر است که از آن ایجاد می شود.

به عنوان مثال، GPT-3 از یک نسخه فیلتر شده Common Crawl استفاده کرد (مدل های زبانی، یادگیرندگان کمی هستند PDF).

به این ترتیب محققان GPT-3 از داده های وب سایت موجود در مجموعه داده Common Crawl استفاده کردند:

«مجموعه‌های داده برای مدل‌های زبان به سرعت گسترش یافته‌اند و به مجموعه داده‌های Common Crawl که تقریباً یک تریلیون کلمه را تشکیل می‌دهند، به اوج خود رسیده‌اند.

این اندازه مجموعه داده برای آموزش بزرگ‌ترین مدل‌های ما بدون اینکه روی یک دنباله دو بار به‌روزرسانی شود، کافی است.

با این حال، متوجه شده‌ایم که نسخه‌های فیلتر نشده یا کمی فیلتر شده Common Crawl نسبت به مجموعه داده‌های مدیریت‌شده‌تر کیفیت پایین‌تری دارند.

بنابراین، ما 3 گام برای بهبود کیفیت متوسط ​​مجموعه داده های خود برداشتیم:

(1) نسخه ای از CommonCrawl را بر اساس شباهت به طیفی از مجموعه های مرجع با کیفیت بالا دانلود و فیلتر کردیم،

(2) برای جلوگیری از افزونگی و حفظ یکپارچگی مجموعه اعتبار سنجی نگهداشته شده خود به عنوان معیار دقیقی از برازش، کپی‌سازی فازی را در سطح سند، در داخل و بین مجموعه‌های داده انجام دادیم، و

(3) ما همچنین برای تقویت CommonCrawl و افزایش تنوع آن، مجموعه‌های مرجع با کیفیت بالا را به ترکیب آموزشی اضافه کردیم.

مجموعه داده های C4 گوگل (Colossal, Cleaned Crawl Corpus) که برای ایجاد تبدیل کننده انتقال متن به متن (T5) استفاده شد، ریشه در مجموعه داده های Common Crawl نیز دارد.

مقاله تحقیقاتی آنها (کاوش در محدودیت های یادگیری انتقال با یک تبدیل متن به متن یکپارچه PDF) توضیح می دهد:

“قبل از ارائه نتایج حاصل از مطالعه تجربی در مقیاس بزرگ، ما موضوعات زمینه لازم برای درک نتایج خود را بررسی می کنیم، از جمله معماری مدل ترانسفورماتور و وظایف پایین دستی که بر روی آنها ارزیابی می کنیم.

ما همچنین رویکرد خود را برای رسیدگی به هر مشکلی به‌عنوان یک کار متن به نوشتار معرفی می‌کنیم و «Colossal Clean Crawled Corpus» (C4)، مجموعه داده‌های مبتنی بر خزیدن مشترک را که به عنوان منبع داده‌های متنی بدون برچسب ایجاد کرده‌ایم، توصیف می‌کنیم.

ما به مدل و چارچوب خود به عنوان “تبدیل متن به متن” (T5) اشاره می کنیم.

گوگل مقاله ای را در وبلاگ هوش مصنوعی خود منتشر کرد که بیشتر توضیح می دهد که چگونه از داده های Common Crawl (که حاوی محتوای خراشیده شده از اینترنت است) برای ایجاد C4 استفاده شده است.

آنها نوشتند:

یک عنصر مهم برای یادگیری انتقال، مجموعه داده بدون برچسبی است که برای پیش‌آموزش استفاده می‌شود.

برای اندازه‌گیری دقیق تأثیر مقیاس‌پذیری میزان پیش‌آموزش، به مجموعه‌ای نیاز دارد که نه تنها با کیفیت و متنوع باشد، بلکه گسترده باشد.

مجموعه داده‌های پیش‌آموزشی موجود، هر سه این معیارها را برآورده نمی‌کنند – برای مثال، متن ویکی‌پدیا با کیفیت بالا، اما سبک یکنواخت و برای اهداف ما نسبتاً کوچک است، در حالی که صفحات وب Common Crawl بسیار زیاد و بسیار متنوع هستند، اما نسبتاً کیفیت پایین.

برای برآورده کردن این الزامات، ما Corpus Clean Crawled Colossal (C4) را توسعه دادیم، یک نسخه تمیز شده از Common Crawl که دو مرتبه بزرگتر از ویکی‌پدیا است.

فرآیند تمیز کردن ما شامل کپی برداری، دور انداختن جملات ناقص و حذف محتوای توهین آمیز یا پر سر و صدا بود.

این فیلتر منجر به نتایج بهتر در کارهای پایین دستی می‌شود، در حالی که اندازه اضافی باعث می‌شود که اندازه مدل بدون نیاز به بیش از حد در طول آموزش افزایش یابد.

Google، OpenAI، حتی Open Data Oracle از محتوای اینترنت، محتوای شما، برای ایجاد مجموعه داده‌هایی استفاده می‌کنند که سپس برای ایجاد برنامه‌های هوش مصنوعی مانند ChatGPT استفاده می‌شوند.

Crawl مشترک را می توان مسدود کرد

می توان Common Crawl را مسدود کرد و متعاقباً از همه مجموعه داده هایی که بر اساس Common Crawl هستند انصراف داد.

اما اگر سایت قبلاً خزیده شده باشد، داده های وب سایت از قبل در مجموعه داده ها هستند. هیچ راهی برای حذف محتوای شما از مجموعه داده Common Crawl و هر یک از مجموعه داده های مشتق دیگر مانند C4 و .

استفاده از پروتکل Robots.txt فقط خزیدن‌های آینده توسط Common Crawl را مسدود می‌کند و مانع از استفاده محققان از محتوای موجود در مجموعه داده نمی‌شود.

نحوه مسدود کردن Crawl مشترک از داده های خود

مسدود کردن Common Crawl از طریق استفاده از پروتکل Robots.txt، در چارچوب محدودیت‌های مورد بحث در بالا، امکان‌پذیر است.

ربات Common Crawl، CCBot نامیده می شود.

با استفاده از به‌روزترین رشته CCBot User-Agent شناسایی می‌شود: CCBot/2.0

مسدود کردن CCBot با Robots.txt مانند هر ربات دیگری انجام می شود.

در اینجا کد مسدود کردن CCBot با Robots.txt آمده است.

User-agent: CCBot
Disallow: /

CCBot از آدرس های IP آمازون AWS می خزد.

CCBot همچنین از متا تگ nofollow Robots پیروی می کند:

<meta name="robots" content="nofollow">

اگر Crawl معمولی را مسدود نکنید، چه؟

محتوای وب را می توان بدون اجازه دانلود کرد، که مرورگرها چگونه کار می کنند، آنها محتوا را دانلود می کنند.

Google یا هر شخص دیگری برای دانلود و استفاده از محتوایی که به صورت عمومی منتشر می شود به مجوز نیاز ندارد.

ناشران وب سایت گزینه های محدودی دارند

به نظر نمی‌رسد که رعایت اخلاقی بودن آموزش هوش مصنوعی بر روی محتوای وب، بخشی از هیچ مکالمه‌ای در مورد اخلاقیات نحوه توسعه فناوری هوش مصنوعی نباشد.

به نظر می رسد مسلم است که محتوای اینترنتی را می توان دانلود، خلاصه کرد و به محصولی به نام ChatGPT تبدیل کرد.

آیا این منصفانه به نظر می رسد؟ پاسخ پیچیده است.

تصویر برجسته توسط Shutterstock/Krakenimages.com





منبع

مطالب مرتبط