5 نگرانی اخلاقی مطرح شده توسط پیشگام هوش مصنوعی جفری هینتون


جفری هینتون، پیشگام هوش مصنوعی، که به خاطر کارهای انقلابی خود در زمینه یادگیری عمیق و تحقیقات شبکه های عصبی شهرت دارد، اخیراً نگرانی های خود را در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن ابراز کرده است.

هینتون با توجه به مشاهدات خود از مدل‌های جدید زبان بزرگ مانند GPT-4، در مورد چندین مسئله کلیدی هشدار می‌دهد:

  1. ماشین هایی که از هوش انسانی پیشی گرفته اندهینتون معتقد است که سیستم‌های هوش مصنوعی مانند GPT-4 بسیار هوشمندتر از آنچه در ابتدا پیش‌بینی می‌شد، هستند و احتمالاً الگوریتم‌های یادگیری بهتری نسبت به انسان‌ها دارند.
  2. خطرات استفاده از چت ربات های هوش مصنوعی توسط “بازیگران بد”: هینتون خطرات استفاده از چت ربات های هوشمند برای انتشار اطلاعات نادرست، دستکاری رأی دهندگان و ایجاد ربات های هرزنامه قدرتمند را برجسته می کند.
  3. قابلیت یادگیری چند شاتمدل‌های هوش مصنوعی تنها با چند مثال می‌توانند وظایف جدید را بیاموزند و ماشین‌ها را قادر می‌سازند تا مهارت‌های جدیدی را با سرعتی قابل مقایسه با انسان‌ها یا حتی پیشی‌تر از آن‌ها کسب کنند.
  4. خطر وجودی ناشی از سیستم های هوش مصنوعیهینتون در مورد سناریوهایی هشدار می دهد که در آن سیستم های هوش مصنوعی اهداف فرعی خود را ایجاد می کنند و برای قدرت بیشتر تلاش می کنند و از انباشت دانش و قابلیت های اشتراک گذاری انسان پیشی می گیرند.
  5. تاثیر بر بازار کار: هوش مصنوعی و اتوماسیون می‌توانند مشاغل را در صنایع خاصی جابجا کنند و بخش‌های تولید، کشاورزی و مراقبت‌های بهداشتی به‌ویژه تحت تأثیر قرار گیرند.

در این مقاله، ما عمیق‌تر به نگرانی‌های هینتون، خروج او از گوگل برای تمرکز بر جنبه‌های اخلاقی و ایمنی توسعه هوش مصنوعی و اهمیت توسعه هوش مصنوعی مسئولانه در شکل‌دهی آینده روابط انسان و هوش مصنوعی می‌پردازیم.

خروج هینتون از گوگل و توسعه هوش مصنوعی اخلاقی

هینتون در پی رسیدگی به ملاحظات اخلاقی و ایمنی پیرامون هوش مصنوعی، تصمیم گرفت از سمت خود در گوگل کناره گیری کند.

این به او این امکان را می‌دهد که آزادانه نگرانی‌های خود را بیان کند و در کارهای فلسفی‌تر بدون محدودیت‌های منافع شرکتی شرکت کند.

هینتون در مصاحبه ای با MIT Technology Review می گوید:

من می‌خواهم در مورد مسائل ایمنی هوش مصنوعی بدون نگرانی درباره نحوه تعامل آن با تجارت Google صحبت کنم. تا زمانی که گوگل به من پول می دهد، نمی توانم این کار را انجام دهم.»

خروج هینتون نشان دهنده تغییر در تمرکز او به سمت جنبه های اخلاقی و ایمنی هوش مصنوعی است. او قصد دارد به طور فعال در گفتگوهای جاری در مورد توسعه و استقرار مسئول هوش مصنوعی شرکت کند.

هینتون با استفاده از تخصص و شهرت خود، قصد دارد در توسعه چارچوب ها و دستورالعمل هایی که به موضوعاتی مانند سوگیری، شفافیت، مسئولیت پذیری، حریم خصوصی و پایبندی به اصول اخلاقی می پردازد، کمک کند.

GPT-4 و بازیگران بد

هینتون در طی مصاحبه اخیر خود نسبت به احتمال پیشی گرفتن ماشین ها از هوش انسانی ابراز نگرانی کرد. قابلیت های چشمگیر GPT-4که توسط OpenAI توسعه داده شد و در اوایل امسال منتشر شد، باعث شد هینتون باورهای قبلی خود را دوباره ارزیابی کند.

او معتقد است که مدل‌های زبانی مانند GPT-4 بسیار باهوش‌تر از آنچه در ابتدا پیش‌بینی می‌شد، هستند و احتمالاً الگوریتم‌های یادگیری بهتری نسبت به انسان‌ها دارند.

هینتون در این مصاحبه می گوید:

مغز ما 100 تریلیون اتصال دارد. مدل های زبان بزرگ تا نیم تریلیون، حداکثر یک تریلیون دارند. با این حال GPT-4 صدها برابر بیشتر از هر شخص دیگری می داند. بنابراین شاید در واقع الگوریتم یادگیری بسیار بهتری از ما داشته باشد.»

نگرانی های هینتون در درجه اول حول تفاوت های قابل توجه بین ماشین ها و انسان ها می چرخد. او معرفی مدل‌های زبانی بزرگ را به تهاجم بیگانگان تشبیه می‌کند و بر مهارت‌ها و دانش زبانی برتر آنها در مقایسه با هر فردی تأکید می‌کند.

هینتون در این مصاحبه می گوید:

«این چیزها با ما کاملاً متفاوت است. گاهی اوقات فکر می‌کنم انگار موجودات فضایی فرود آمده‌اند و مردم متوجه نمی‌شوند چون انگلیسی بسیار خوبی صحبت می‌کنند.»

هینتون در مورد خطراتی که چت ربات های هوش مصنوعی باهوش تر از انسان ها و موجودات هستند، هشدار می دهد مورد سوء استفاده «بازیگران بد»

او در این مصاحبه هشدار می دهد که این چت بات ها می توانند برای انتشار اطلاعات نادرست، دستکاری رای دهندگان و ایجاد ربات های هرزنامه قدرتمند استفاده شوند.

«ببینید، اینجا یکی از راه‌هایی است که ممکن است همه چیز به درستی پیش برود. ما می دانیم که بسیاری از افرادی که می خواهند از این ابزارها استفاده کنند، بازیگران بدی مانند پوتین یا دیسانتیس هستند. آنها می خواهند از آنها برای پیروزی در جنگ ها یا دستکاری رأی دهندگان استفاده کنند.»

آموزش چند شات و برتری هوش مصنوعی

یکی دیگر از جنبه هایی که هینتون را نگران می کند، توانایی مدل های زبان بزرگ برای اجرا است یادگیری چند شات.

این مدل‌ها را می‌توان برای انجام کارهای جدید با چند مثال آموزش داد، حتی کارهایی که مستقیماً برای آن‌ها آموزش ندیده‌اند.

این قابلیت یادگیری چشمگیر باعث می‌شود سرعت ماشین‌ها در کسب مهارت‌های جدید قابل مقایسه یا حتی از انسان‌ها باشد.

هینتون در این مصاحبه می گوید:

“مردم[‘s brains] به نظر می رسید که نوعی جادو دارد. خوب، به محض اینکه یکی از این مدل های زبان بزرگ را انتخاب می کنید و آن را برای انجام کار جدیدی آموزش می دهید، از آن بحث خارج می شود. می تواند کارهای جدید را بسیار سریع یاد بگیرد.»

نگرانی هینتون فراتر از تأثیر فوری بر بازارهای کار و صنایع است.

او را بالا می برد “خطر وجودی” وقتی سیستم‌های هوش مصنوعی از انسان‌ها باهوش‌تر می‌شوند، چه اتفاقی می‌افتد و در مورد سناریوهایی که سیستم‌های هوش مصنوعی اهداف فرعی خود را ایجاد می‌کنند و برای قدرت بیشتر تلاش می‌کنند، هشدار می‌دهد.

هینتون مثالی ارائه می دهد که چگونه سیستم های هوش مصنوعی در حال توسعه اهداف فرعی می توانند اشتباه کنند:

“خوب، در اینجا یک هدف فرعی است که تقریباً همیشه در زیست شناسی کمک می کند: دریافت انرژی بیشتر. بنابراین اولین چیزی که ممکن است اتفاق بیفتد این است که این روبات‌ها می‌گویند: «بیایید قدرت بیشتری دریافت کنیم. بیایید تمام برق را به تراشه‌هایم تغییر مسیر دهیم.’ یکی دیگر از اهداف فرعی بزرگ این است که کپی های بیشتری از خودتان بسازید. این صدا خوب است؟»

تاثیر هوش مصنوعی بر بازارهای کار و مقابله با خطرات

هینتون به آن اشاره می کند تاثیر هوش مصنوعی بر مشاغل یک نگرانی قابل توجه است.

هوش مصنوعی و اتوماسیون می تواند وظایف تکراری و پیش پا افتاده را بر عهده بگیرد و باعث از دست دادن شغل در برخی از بخش ها شود.

کارمندان تولید و کارخانه ممکن است به شدت از اتوماسیون آسیب ببینند.

روبات‌ها و ماشین‌های مبتنی بر هوش مصنوعی در حال رشد هستند که ممکن است مشاغل پرخطر و تکراری انسان را تصاحب کنند.

اتوماسیون نیز در کشاورزی با کارهای خودکار مانند کاشت، برداشت و نظارت بر محصول در حال پیشرفت است.

در مراقبت‌های بهداشتی، برخی وظایف اداری را می‌توان خودکار کرد، اما نقش‌هایی که نیاز به تعامل و شفقت انسانی دارند، کمتر با هوش مصنوعی جایگزین می‌شوند.

به طور خلاصه

نگرانی های هینتون در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن بر نیاز به توسعه هوش مصنوعی مسئولانه تاکید دارد.

خروج او از گوگل نشان دهنده تعهد او به رسیدگی به ملاحظات ایمنی، ترویج گفتگوی باز و شکل دادن به آینده هوش مصنوعی به شیوه ای است که از رفاه بشریت محافظت می کند.

اگرچه دیگر در گوگل نیست، مشارکت ها و تخصص هینتون همچنان نقشی حیاتی در شکل دادن به حوزه هوش مصنوعی و هدایت توسعه اخلاقی آن ایفا می کند.


تصویر ویژه ایجاد شده توسط نویسنده با استفاده از Midjourney





منبع

مطالب مرتبط