به گزارش
جامجم آنلاین به نقل از ساینس الرت، نکته مهم این است که کنترل یک اَبَر هوش که بسیار فراتر از درک انسان عمل میکند نیازمند شبیهسازی آن اَبَر هوش است که بتوان آن را تحلیل کرد. اما اگر ما قادر به درک آن نباشیم، ایجاد چنین شبیهسازی غیرممکن است.
به گفته نویسندگان این مقاله، اگر ما سناریوهایی را که یک هوش مصنوعی قرار است ارائه دهد، درک نکنیم، نمیتوان قوانینی مانند «به انسانها آسیب نرساند» تنظیم کرد. هنگامی که یک سیستم کامپیوتری در سطحی بالاتر از محدوده برنامهنویسان آن کار میکند، دیگر نمیتوانیم محدودیتهایی را برای آن تعیین کنیم.
محققان بیان میکنند: «یک اَبَرهوش مشکلی اساساً متفاوت با چالشهایی که معمولاً تحت عنوان «اخلاق ربات» مورد مطالعه قرار میگیرد، ایجاد میکند. این موضوع به این دلیل است که یک ابرهوش چندوجهی است، و بنابراین به طور بالقوه قادر به گردآوری منابع متنوعی برای دستیابی به اهدافی است که به طور بالقوه برای انسان غیرقابل درک است، چه برسد به اینکه قابل کنترل باشد.»
بخشی از استدلال این تیم تحقیقاتی بر اساس «مسئله توقف» ارائه شده توسط آلن تورینگ در سال ۱۹۳۶ ناشی میشود. مشکل بر این تمرکز دارد که بدانیم آیا یک برنامه کامپیوتری به نتیجه و پاسخ میرسد (بنابراین متوقف میشود)، یا به سادگی برای همیشه در حلقه تلاش برای یافتن یک پاسخ میماند.
برای مثال، هر برنامهای که برای جلوگیری از آسیب رساندن هوش مصنوعی به انسانها و نابودی جهان نوشته شده باشد، ممکن است به نتیجه برسد (و متوقف شود) یا خیر - از نظر ریاضی غیرممکن است که در مورد هر یک از این دو حالت کاملاً مطمئن باشیم؛ این یعنی کنترلی بر این موضوع نخواهیم داشت.
ایاد رهوان، متخصص کامپیوتر، از مؤسسه توسعه انسانی ماکس پلانک در آلمان در ماه ژانویه گفت: «در واقع، این باعث میشود که الگوریتم مهار غیرقابل استفاده باشد.»
جایگزینی برای آموزش برخی اصول اخلاقی به هوش مصنوعی و گفتن به آن مبنی بر اینکه دنیا را نابود نکند – چیزی که به گفته محققان هیچ الگوریتمی نمیتواند از انجام آن کاملاً مطمئن باشد – محدود کردن قابلیتهای ابر هوش است. میتوان آن را برای مثال از بخشهایی از اینترنت یا شبکههای خاصی قطع کرد.
مطالعه اخیر این ایده را نیز رد میکند و معتقد است چنین روشی دسترسی به هوش مصنوعی را محدود میکند؛ بنابراین این سوال ایجاد خواهد شد که اگر قرار نیست از ابرهوش برای حل مشکلات فراتر از محدوده انسان استفاده کنیم، پس چرا اصلاً آن را ایجاد کنیم؟
اگر بخواهیم با هوش مصنوعی پیش برویم، حتی ممکن است ندانیم که چه زمانی یک ابرهوش فراتر از کنترل ما به وجود خواهد آمد و همچنین چه زمانی برای ما غیرقابل درک خواهد شد؛ بنابراین باید از همین حالا شروع به پرسیدن برخی از سؤالات جدی در مورد مسیرهایی که در آن قرار داریم بپرسیم.
مانوئل سبرین، متخصص کامپیوتر، از موسسه توسعه انسانی ماکس پلانک، میگوید: «ماشین فوق هوشمندی که جهان را کنترل میکند، شبیه داستانهای علمی تخیلی است. اما در حال حاضر ماشینهایی وجود دارند که وظایف مهم خاصی را بهطور مستقل انجام میدهند، بدون اینکه برنامهنویسان کاملاً بفهمند که چگونه آن را یاد گرفتهاند؛ بنابراین این سوال مطرح میشود که آیا این ممکن است در مقطعی غیرقابل کنترل و برای بشریت خطرناک شود؟»
این تحقیق در مجله تحقیقات هوش مصنوعی منتشر شده است.