دهه‌هاست این ایده که هوش مصنوعی بشر را سرنگون می‌کند مطرح است در ژانویه ۲۰۲۱، دانشمندان حکم خود را در مورد اینکه آیا ما می‌توانیم یک ابر هوش کامپیوتری سطح بالا را کنترل کنیم، ارائه کردند. جواب؟ نزدیک به احتمال خیلی زیاد خیر.
دهه‌هاست این ایده که هوش مصنوعی بشر را سرنگون می‌کند مطرح است در ژانویه ۲۰۲۱، دانشمندان حکم خود را در مورد اینکه آیا ما می‌توانیم یک ابر هوش کامپیوتری سطح بالا را کنترل کنیم، ارائه کردند. جواب؟ نزدیک به احتمال خیلی زیاد خیر.
کد خبر: ۱۳۴۵۸۵۶
به گزارش جام‌جم آنلاین به نقل از ساینس الرت، نکته مهم این است که کنترل یک اَبَر هوش که بسیار فراتر از درک انسان عمل می‌کند نیازمند شبیه‌سازی آن اَبَر هوش است که بتوان آن را تحلیل کرد. اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیه‌سازی غیرممکن است.

به گفته نویسندگان این مقاله، اگر ما سناریو‌هایی را که یک هوش مصنوعی قرار است ارائه دهد، درک نکنیم، نمی‌توان قوانینی مانند «به انسان‌ها آسیب نرساند» تنظیم کرد. هنگامی که یک سیستم کامپیوتری در سطحی بالاتر از محدوده برنامه‌نویسان آن کار می‌کند، دیگر نمی‌توانیم محدودیت‌هایی را برای آن تعیین کنیم.

محققان بیان می‌کنند: «یک اَبَرهوش مشکلی اساساً متفاوت با چالش‌هایی که معمولاً تحت عنوان «اخلاق ربات» مورد مطالعه قرار می‌گیرد، ایجاد می‌کند. این موضوع به این دلیل است که یک ابرهوش چندوجهی است، و بنابراین به طور بالقوه قادر به گردآوری منابع متنوعی برای دستیابی به اهدافی است که به طور بالقوه برای انسان غیرقابل درک است، چه برسد به اینکه قابل کنترل باشد.»

بخشی از استدلال این تیم تحقیقاتی بر اساس «مسئله توقف» ارائه شده توسط آلن تورینگ در سال ۱۹۳۶ ناشی می‌شود. مشکل بر این تمرکز دارد که بدانیم آیا یک برنامه کامپیوتری به نتیجه و پاسخ می‌رسد (بنابراین متوقف می‌شود)، یا به سادگی برای همیشه در حلقه تلاش برای یافتن یک پاسخ می‌ماند.

برای مثال، هر برنامه‌ای که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسان‌ها و نابودی جهان نوشته شده باشد، ممکن است به نتیجه برسد (و متوقف شود) یا خیر - از نظر ریاضی غیرممکن است که در مورد هر یک از این دو حالت کاملاً مطمئن باشیم؛ این یعنی کنترلی بر این موضوع نخواهیم داشت.

ایاد رهوان، متخصص کامپیوتر، از مؤسسه توسعه انسانی ماکس پلانک در آلمان در ماه ژانویه گفت: «در واقع، این باعث می‌شود که الگوریتم مهار غیرقابل استفاده باشد.»

جایگزینی برای آموزش برخی اصول اخلاقی به هوش مصنوعی و گفتن به آن مبنی بر اینکه دنیا را نابود نکند – چیزی که به گفته محققان هیچ الگوریتمی نمی‌تواند از انجام آن کاملاً مطمئن باشد – محدود کردن قابلیت‌های ابر هوش است. می‌توان آن را برای مثال از بخش‌هایی از اینترنت یا شبکه‌های خاصی قطع کرد.

مطالعه اخیر این ایده را نیز رد می‌کند و معتقد است چنین روشی دسترسی به هوش مصنوعی را محدود می‌کند؛ بنابراین این سوال ایجاد خواهد شد که اگر قرار نیست از ابرهوش برای حل مشکلات فراتر از محدوده انسان استفاده کنیم، پس چرا اصلاً آن را ایجاد کنیم؟

اگر بخواهیم با هوش مصنوعی پیش برویم، حتی ممکن است ندانیم که چه زمانی یک ابرهوش فراتر از کنترل ما به وجود خواهد آمد و همچنین چه زمانی برای ما غیرقابل درک خواهد شد؛ بنابراین باید از همین حالا شروع به پرسیدن برخی از سؤالات جدی در مورد مسیر‌هایی که در آن قرار داریم بپرسیم.

مانوئل سبرین، متخصص کامپیوتر، از موسسه توسعه انسانی ماکس پلانک، می‌گوید: «ماشین فوق هوشمندی که جهان را کنترل می‌کند، شبیه داستان‌های علمی تخیلی است. اما در حال حاضر ماشین‌هایی وجود دارند که وظایف مهم خاصی را به‌طور مستقل انجام می‌دهند، بدون اینکه برنامه‌نویسان کاملاً بفهمند که چگونه آن را یاد گرفته‌اند؛ بنابراین این سوال مطرح می‌شود که آیا این ممکن است در مقطعی غیرقابل کنترل و برای بشریت خطرناک شود؟»

این تحقیق در مجله تحقیقات هوش مصنوعی منتشر شده است.
newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰
فرزند زمانه خود باش

گفت‌وگوی «جام‌جم» با میثم عبدی، کارگردان نمایش رومئو و ژولیت و چند کاراکتر دیگر

فرزند زمانه خود باش

نیازمندی ها