مسأله این است که هنوز تعریف دقیقی حتی برای مفهوم هوشاز سوی صاحبنظران ارائه نشدهاست، اما میتوان به بیانی ساده هوشمصنوعی را اینگونه تعریف کرد: هوشمصنوعی سامانهای طراحیشده توسط انسان است که میتواند مانند انسان به طور منطقی فکر و سپس عملکند. این هوشاما تا چه حدی میتواند پیشرفت کند؟
اگر از علاقهمندان فیلمهای علمی ـ تخیلی باشید، قطعا با رباتهای دوستداشتنی «C ۳ PO» در مجموعه «جنگ ستارگان» و «TARS» در «میانستارهای» آشنایی دارید. این دو ربات با هوشمصنوعی قوی خود به عنوان دوست و همراه وفادار شخصیتهای انسانی داستان، شناخته میشوند. در مقابل نیز، ربات «HAL ۹۰۰۰» در فیلم «۲۰۰۱؛ یک اودیسه فضایی»، نوعی هوشسیاه و خودبرتربین است که از جایی به بعد گمان میکند فعالیت انسانها با اصولش مغایرت دارد و خودسرانه کنترل ماموریت را به دست میگیرد. این گونه نمایشهای متناقض از آینده سامانههای هوشمند یا به طور کلی هوشمصنوعی، همیشه جزو داغترین بحثهای علمی در ۱۰۰سال اخیر بوده که موافقان و مخالفان زیادی نیز دارد. این تعارضها تا جایی پیش رفته که ایلان ماسک، یکی از موفقترین مدیران حوزه فناوری، بزرگترین ترس خود را سامانههای هوشمصنوعی عنوان میکند. این نوع دیدگاهها میان صاحبنظران که شمار زیادی هم دارند، میتواند زنگ خطری برای وقوع یک رستاخیز بالقوه و تمامعیار میان انسان و هوشمصنوعی ساختهشده به دست خود انسانها باشد.
آینده چگونه خواهدشد؟
آیا انسان میتواند یک هوشمصنوعی ابرهوشمند را به کنترل خود درآورد؟ این سؤال از پرتکرارترین سوالات و مهمترین دغدغه دانشمندان حوزه هوشمصنوعی است. در تحقیقی که اخیرا در نشریه «تحقیقات هوشمصنوعی» به چاپ رسیده، پاسخی قابل تامل و دوپهلو به این سؤال دادهشدهاست: «تقریبا قطعا خیر.» در حقیقت مسأله اصلی این است که ما تا زمانی که خود به شناخت کاملی از مفهوم هوشمصنوعی نرسیم، توانایی شبیهسازی یا کنترل آن را نخواهیمداشت. به گفته یکی از این محققان: «اگر ما توانایی درک و شناخت فرآیندها و سناریوهای احتمالی قابل اجرای یک هوشمصنوعی را نداشتهباشیم، نمیتوانیم قوانینی مانند «آسیب نزدن به انسان» یا محدودیتهای مشابه دیگری را برای آن وضع کنیم.» محقق دیگری بیانمیکند: «هوشمصنوعی میتواند مسائلی کاملا متفاوت از آن چیزی را که در حال حاضر به عنوان «اخلاق ربات» شناخته میشود ایجاد کند؛ زیرا هوشمصنوعی یک سامانه منطقی و متفکر با عملگرهای چندگانه بسیارپیشرفته است که میتواند از تمامی منابع موجود برای دستیابی به اهداف خود استفاده کند. این اهداف میتواند به طور بالقوه برای انسان غیرقابل درک و غیرقابل کنترل باشد.»
بخشی از استدلال این گروه تحقیقاتی بر مبنای «مسأله توقف» است که ریاضیدان برجسته، آلنتورینگ در سال ۱۹۳۶ معرفیکردهاست. مسأله توقف میگوید: مشکل این است که باید بدانیم آیا یک برنامه رایانهای میتواند در نهایت به پاسخ برسد و متوقف شود یا اینکه صرفا برای همیشه در یک حلقه بسته به دنبال پاسخ خواهدبود. برای مثال برنامهای که برای «آسیبنزدن هوشمصنوعی به انسان» نوشته میشود، آیا ممکن است زمانی به نتیجه برسد و متوقف شود یا خیر؟! آلن تورینگ ثابت کردهاست از نظر محاسبات منطقی ریاضی، اطمینان کامل از نتیجهبخشبودن برنامه غیرممکن است؛ پس این برنامه به نوعی غیرقابلکنترل خواهدبود. به گفته ایادرهوان، دانشمند کامپیوتر موسسه تحقیقات انسانی ماکس پلانک آلمان: «در حقیقت، مسأله توقف سبب میشود فرآیند و الگوریتم کنترل یک برنامه غیرقابلاستفادهشود.»
تحقیق اخیر راهحلهایی مثل قطع ارتباط سامانه با اینترنت یا وضع اصول و قوانینی مانند آسیبنزدن به انسان برای کنترل هوشمصنوعی را نیز رد میکند؛ زیرا این راهحلها فقط سبب محدودکردن تواناییهای هوشمصنوعی میشود. هرچند به گفته محققان، در حال حاضر هیچ برنامه و الگوریتمی نمیتواند به ما این اطمینان را بدهد که حتی چنین قوانینی را میتواند برای یک هوشمصنوعی وضع کند یا خیر. استدلال محققان برای رد این راهحلها این است که اگر بنا نیست از هوشمصنوعی برای حل مشکلات فراتر از درک انسان استفاده کنیم، پس اصلا چرا آن را به وجود بیاوریم؟!
حال اگر بخواهیم کماکان به توسعه فناوری هوشمصنوعی بپردازیم، حتی شاید نتوانیم بفهمیم که این مفهوم غیرقابلکنترلشدن چه زمان و بهچه شکلی ایجاد خواهدشد؛ لذا باید سوالهایی اساسی در خصوص آینده این مسیر را مطرح و به آن پاسخ دهیم.
مانوئل سبریان، دیگر محقق رایانه موسسه تحقیقات انسانی ماکس پلانک میگوید: تصور اینکه یک هوشمصنوعی کنترل دنیا را به دست بگیرد، کمی علمی- تخیلی به نظر میرسد، ولی با وجود این در حال حاضر سامانههایی وجود دارد که به طور مستقل درحال انجام فعالیتهای کلیدی و مهمی هستند که هنوز متخصصان درکنکردهاند چگونه این سامانه توانسته روش انجام فعالیت خود را بیاموزد؛ لذا این سؤال مطرح میشود که آیا هوشمصنوعی و فرآیندهای آن ممکن است در مقطعی غیرقابلکنترل و برای بشریت خطرناک شود یا خیر؟
روزنامه جام جم