5 نگرانی اخلاقی مطرح شده توسط پیشگام هوش مصنوعی جفری هینتون
جفری هینتون، پیشگام هوش مصنوعی، که به خاطر کارهای انقلابی خود در زمینه یادگیری عمیق و تحقیقات شبکه های عصبی شهرت دارد، اخیراً نگرانی های خود را در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن ابراز کرده است.
هینتون با توجه به مشاهدات خود از مدلهای جدید زبان بزرگ مانند GPT-4، در مورد چندین مسئله کلیدی هشدار میدهد:
- ماشین هایی که از هوش انسانی پیشی گرفته اندهینتون معتقد است که سیستمهای هوش مصنوعی مانند GPT-4 بسیار هوشمندتر از آنچه در ابتدا پیشبینی میشد، هستند و احتمالاً الگوریتمهای یادگیری بهتری نسبت به انسانها دارند.
- خطرات استفاده از چت ربات های هوش مصنوعی توسط “بازیگران بد”: هینتون خطرات استفاده از چت ربات های هوشمند برای انتشار اطلاعات نادرست، دستکاری رأی دهندگان و ایجاد ربات های هرزنامه قدرتمند را برجسته می کند.
- قابلیت یادگیری چند شاتمدلهای هوش مصنوعی تنها با چند مثال میتوانند وظایف جدید را بیاموزند و ماشینها را قادر میسازند تا مهارتهای جدیدی را با سرعتی قابل مقایسه با انسانها یا حتی پیشیتر از آنها کسب کنند.
- خطر وجودی ناشی از سیستم های هوش مصنوعیهینتون در مورد سناریوهایی هشدار می دهد که در آن سیستم های هوش مصنوعی اهداف فرعی خود را ایجاد می کنند و برای قدرت بیشتر تلاش می کنند و از انباشت دانش و قابلیت های اشتراک گذاری انسان پیشی می گیرند.
- تاثیر بر بازار کار: هوش مصنوعی و اتوماسیون میتوانند مشاغل را در صنایع خاصی جابجا کنند و بخشهای تولید، کشاورزی و مراقبتهای بهداشتی بهویژه تحت تأثیر قرار گیرند.
در این مقاله، ما عمیقتر به نگرانیهای هینتون، خروج او از گوگل برای تمرکز بر جنبههای اخلاقی و ایمنی توسعه هوش مصنوعی و اهمیت توسعه هوش مصنوعی مسئولانه در شکلدهی آینده روابط انسان و هوش مصنوعی میپردازیم.
خروج هینتون از گوگل و توسعه هوش مصنوعی اخلاقی
هینتون در پی رسیدگی به ملاحظات اخلاقی و ایمنی پیرامون هوش مصنوعی، تصمیم گرفت از سمت خود در گوگل کناره گیری کند.
این به او این امکان را میدهد که آزادانه نگرانیهای خود را بیان کند و در کارهای فلسفیتر بدون محدودیتهای منافع شرکتی شرکت کند.
هینتون در مصاحبه ای با MIT Technology Review می گوید:
من میخواهم در مورد مسائل ایمنی هوش مصنوعی بدون نگرانی درباره نحوه تعامل آن با تجارت Google صحبت کنم. تا زمانی که گوگل به من پول می دهد، نمی توانم این کار را انجام دهم.»
خروج هینتون نشان دهنده تغییر در تمرکز او به سمت جنبه های اخلاقی و ایمنی هوش مصنوعی است. او قصد دارد به طور فعال در گفتگوهای جاری در مورد توسعه و استقرار مسئول هوش مصنوعی شرکت کند.
هینتون با استفاده از تخصص و شهرت خود، قصد دارد در توسعه چارچوب ها و دستورالعمل هایی که به موضوعاتی مانند سوگیری، شفافیت، مسئولیت پذیری، حریم خصوصی و پایبندی به اصول اخلاقی می پردازد، کمک کند.
GPT-4 و بازیگران بد
هینتون در طی مصاحبه اخیر خود نسبت به احتمال پیشی گرفتن ماشین ها از هوش انسانی ابراز نگرانی کرد. قابلیت های چشمگیر GPT-4که توسط OpenAI توسعه داده شد و در اوایل امسال منتشر شد، باعث شد هینتون باورهای قبلی خود را دوباره ارزیابی کند.
او معتقد است که مدلهای زبانی مانند GPT-4 بسیار باهوشتر از آنچه در ابتدا پیشبینی میشد، هستند و احتمالاً الگوریتمهای یادگیری بهتری نسبت به انسانها دارند.
هینتون در این مصاحبه می گوید:
مغز ما 100 تریلیون اتصال دارد. مدل های زبان بزرگ تا نیم تریلیون، حداکثر یک تریلیون دارند. با این حال GPT-4 صدها برابر بیشتر از هر شخص دیگری می داند. بنابراین شاید در واقع الگوریتم یادگیری بسیار بهتری از ما داشته باشد.»
نگرانی های هینتون در درجه اول حول تفاوت های قابل توجه بین ماشین ها و انسان ها می چرخد. او معرفی مدلهای زبانی بزرگ را به تهاجم بیگانگان تشبیه میکند و بر مهارتها و دانش زبانی برتر آنها در مقایسه با هر فردی تأکید میکند.
هینتون در این مصاحبه می گوید:
«این چیزها با ما کاملاً متفاوت است. گاهی اوقات فکر میکنم انگار موجودات فضایی فرود آمدهاند و مردم متوجه نمیشوند چون انگلیسی بسیار خوبی صحبت میکنند.»
هینتون در مورد خطراتی که چت ربات های هوش مصنوعی باهوش تر از انسان ها و موجودات هستند، هشدار می دهد مورد سوء استفاده «بازیگران بد»
او در این مصاحبه هشدار می دهد که این چت بات ها می توانند برای انتشار اطلاعات نادرست، دستکاری رای دهندگان و ایجاد ربات های هرزنامه قدرتمند استفاده شوند.
«ببینید، اینجا یکی از راههایی است که ممکن است همه چیز به درستی پیش برود. ما می دانیم که بسیاری از افرادی که می خواهند از این ابزارها استفاده کنند، بازیگران بدی مانند پوتین یا دیسانتیس هستند. آنها می خواهند از آنها برای پیروزی در جنگ ها یا دستکاری رأی دهندگان استفاده کنند.»
آموزش چند شات و برتری هوش مصنوعی
یکی دیگر از جنبه هایی که هینتون را نگران می کند، توانایی مدل های زبان بزرگ برای اجرا است یادگیری چند شات.
این مدلها را میتوان برای انجام کارهای جدید با چند مثال آموزش داد، حتی کارهایی که مستقیماً برای آنها آموزش ندیدهاند.
این قابلیت یادگیری چشمگیر باعث میشود سرعت ماشینها در کسب مهارتهای جدید قابل مقایسه یا حتی از انسانها باشد.
هینتون در این مصاحبه می گوید:
“مردم[‘s brains] به نظر می رسید که نوعی جادو دارد. خوب، به محض اینکه یکی از این مدل های زبان بزرگ را انتخاب می کنید و آن را برای انجام کار جدیدی آموزش می دهید، از آن بحث خارج می شود. می تواند کارهای جدید را بسیار سریع یاد بگیرد.»
نگرانی هینتون فراتر از تأثیر فوری بر بازارهای کار و صنایع است.
او را بالا می برد “خطر وجودی” وقتی سیستمهای هوش مصنوعی از انسانها باهوشتر میشوند، چه اتفاقی میافتد و در مورد سناریوهایی که سیستمهای هوش مصنوعی اهداف فرعی خود را ایجاد میکنند و برای قدرت بیشتر تلاش میکنند، هشدار میدهد.
هینتون مثالی ارائه می دهد که چگونه سیستم های هوش مصنوعی در حال توسعه اهداف فرعی می توانند اشتباه کنند:
“خوب، در اینجا یک هدف فرعی است که تقریباً همیشه در زیست شناسی کمک می کند: دریافت انرژی بیشتر. بنابراین اولین چیزی که ممکن است اتفاق بیفتد این است که این روباتها میگویند: «بیایید قدرت بیشتری دریافت کنیم. بیایید تمام برق را به تراشههایم تغییر مسیر دهیم.’ یکی دیگر از اهداف فرعی بزرگ این است که کپی های بیشتری از خودتان بسازید. این صدا خوب است؟»
تاثیر هوش مصنوعی بر بازارهای کار و مقابله با خطرات
هینتون به آن اشاره می کند تاثیر هوش مصنوعی بر مشاغل یک نگرانی قابل توجه است.
هوش مصنوعی و اتوماسیون می تواند وظایف تکراری و پیش پا افتاده را بر عهده بگیرد و باعث از دست دادن شغل در برخی از بخش ها شود.
کارمندان تولید و کارخانه ممکن است به شدت از اتوماسیون آسیب ببینند.
روباتها و ماشینهای مبتنی بر هوش مصنوعی در حال رشد هستند که ممکن است مشاغل پرخطر و تکراری انسان را تصاحب کنند.
اتوماسیون نیز در کشاورزی با کارهای خودکار مانند کاشت، برداشت و نظارت بر محصول در حال پیشرفت است.
در مراقبتهای بهداشتی، برخی وظایف اداری را میتوان خودکار کرد، اما نقشهایی که نیاز به تعامل و شفقت انسانی دارند، کمتر با هوش مصنوعی جایگزین میشوند.
به طور خلاصه
نگرانی های هینتون در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن بر نیاز به توسعه هوش مصنوعی مسئولانه تاکید دارد.
خروج او از گوگل نشان دهنده تعهد او به رسیدگی به ملاحظات ایمنی، ترویج گفتگوی باز و شکل دادن به آینده هوش مصنوعی به شیوه ای است که از رفاه بشریت محافظت می کند.
اگرچه دیگر در گوگل نیست، مشارکت ها و تخصص هینتون همچنان نقشی حیاتی در شکل دادن به حوزه هوش مصنوعی و هدایت توسعه اخلاقی آن ایفا می کند.
تصویر ویژه ایجاد شده توسط نویسنده با استفاده از Midjourney