دستور مرگ با الگوریتم: دوران ربات‌های قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس

پیشرفت بشر در حوزه‌ی رباتیک سریع‌تر و نگران‌کننده‌تر از همیشه به‌نظر می‌رسد. پیشرفتی که شاید به ساخت ربات‌های قاتل منجر شود.
کد خبر: ۱۲۸۲۰۴۰
به گزارش جام جم آنلاین به نقل از زومیت، در قسمت قبلی این مقاله درباره هوش مصنوعی و بحث های مربوط به آن، مطالبی گفته شد؛ همچنین در مورد نیاز نیروهای نظامی به ربات ها نکاتی گفته شد، در ادامه به قسمت دوم و پایانی این مقاله می پردازیم.
 
بحران‌های احتمالی آینده
سلاح‌های کاملا خودکار، کشتن انسان‌ها را آسان‌تر و ارزان‌تر از همیشه می‌کنند. چالشی که در ظاهر هم بسیار خطرناک به‌نظر می‌رسد. به‌علاوه مخالفان سلا‌ح‌های خودکار اعتقاد دارند احتمالا عواقب دردناک‌تری در انتظار انسان‌ها خواهد بود. 
اگر توسعه‌ی سلاح‌های LAWS ادامه پیدا کند، سلاح‌‌ها ارزان‌تر از همیشه خواهند شد. همین امروز هم افراد عادی علاقه‌مند می‌توانند با هزینه‌ای پایین پهپاد بسازند. با توسعه‌ی فناوری هم قیمت‌ها روز‌به‌روز بیشتر کاهش می‌یابند. به‌علاوه وقتی ربات‌ها در نبردهای جنگی استفاده شوند، احتمال تصاحب و بهره‌برداری از آن‌ها توسط همگان وجود دارد. درواقع نبردها به محلی برای توسعه و گسترش فناوری ساخت پهپادهای قاتل ارزان بدل خواهند شد.
سلاح‌های خودکار مرگ‌بار می‌توانند در کاربردهای بسیار وحشتناکی همچون پاک‌سازی نژادی یا قتل عام دسته‌ای از انسان‌ها استفاده شوند. آریل کان مدیر ارتباطات مؤسسه‌ی تحقیقات آینده‌ی زندگی (Future of Life Institute) اعتقاد دارد سلاح‌های آینده را می‌توان برای هدف‌گیری دسته‌ای خاص از انسان‌ها برنامه‌ریزی کرد. او چنین رویکردی را یکی از ساده‌ترین کاربردهای فناوری ربات‌های خودکار می‌داند.
پس از بررسی‌های بالا، به موضوع و پیامدی گسترده‌تر در توسعه‌ی هوش مصنوعی می‌رسیم. درحال‌حاضر می‌توان آمریکا را پیشرفته‌ترین کشور در حوزه‌ی یادگیری ماشین و هوش مصنوعی دانست. احتمالا ارتش آمریکا هم هیچ تضمینی بر استفاده نکردن از این مزیت در میدان نبرد ندارد. والش اعتقاد دارد ارتش آمریکا می‌خواهد برتری فناوری خود را دربرابر رقبا حفظ کند.
 
دستور مرگ با الگوریتم: دوران ربات‌های قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس

استدلال آمریکایی‌ها بر حفظ برتری فناورانه نسبت به رقبای سیاسی، ترسناک‌ترین سناریوهای احتمالی را برای آینده‌ی هوش مصنوعی ایجاد می‌کنند. سناریوهایی که از نظر کارشناسان هوش مصنوعی واقعا نگران‌کننده هستند. بسیاری از محققان اعتقاد دارند سیستم‌های پیشرفته‌ی هوش مصنوعی ظرفیت‌های بسیاری برای فاجعه‌های مرگ‌بار دارند. از نگاه آن‌ها پیشرفت چنین فناوری‌هایی می‌تواند به آینده‌ای فاجعه‌بار منجر شود که شاید شانسی برای جبران آن نداشته باشیم. به‌علاوه اگر مسیر را کاملا اشتباه برویم، شاید درنهایت به نابودی کل بشریت ختم شود.
 
برای جلوگیری از آینده‌ای که در بالا متصور شدیم، توسعه‌ی هوش مصنوعی باید در شرایطی باز، با همکاری همگان و با دقت بالا انجام شود. محققان نباید تحقیقات حیاتی هوش مصنوعی را در خفا و شرایطی انجام دهند که هیچ‌کس توانایی شناسایی اشتباهات آن‌ها را نداشته باشد. اگر تحقیقات هوش مصنوعی با مشارکت و نظر همگان انجام شود، می‌توان با احتمال بالایی مشکلات حیاتی توسعه‌ی هوش مصنوعی پیشرفته را شناسایی کرد.
علاوه‌بر مخفی نبودن تحقیقات هوش مصنوعی، باید از عجله در آن هم خودداری کرد. کان در بخش دیگری از مصاحبه می‌گوید:
ما می‌خواهیم جلوی یک مسابقه و نبرد در حوزه‌ی هوش مصنوعی را بگیریم. هیچ‌کس از نبرد در حوزه‌ی هوش مصنوعی خشنود نمی‌شود، اما به این معنی نیست که چنین نبردی رخ نمی‌دهد. به‌علاوه نبرد بر سر توسعه‌ی سلاح‌ها با این فناوری، می‌تواند به نبردی تمام‌عیار منجر شود.

به‌هرحال اگر آمریکا یا هر کشور پیشرفته‌ی دیگر از برتری‌های فناورانه‌ی خود در توسعه‌ی سلاح‌های مبتنی بر هوش مصنوعی استفاده کند، دیگر کشورها هم تحقیقات خود را در این حوزه افزایش می‌دهند. در چنین شرایطی اشتباهات طراحی و محاسباتی در حوزه‌ی هوش مصنوعی، بیشتر و مرگ‌بارتر خواهند بود.

تلاش‌های مردمی در مقابل ربات‌های قاتل
محققان در مقابله با ربات‌های قاتل به ممنوعیت فناوری امیدوار هستند. ممنوعیتی که قبلا هم در استفاده از سلاح‌های بیولوژیکی وضع شد و موفق بود. آن ممنوعیت در سال ۱۹۷۲ و در اوج پیشرفت‌ تحقیق پیرامون سلاح‌های زیستی تصویب شد.
 
دستور مرگ با الگوریتم: دوران ربات‌های قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس

فاکتورهای متعددی منجر به موفقیت ممنوعیت سلاح‌‌های زیستی شد. در وهله‌ی اول دولت‌ها با استفاده از چنین سلاح‌هایی، مزیت زیادی به‌دست نمی‌آوردند. به‌علاوه در موضوع سلاح‌های زیستی، دسترسی به آن‌ها با قیمت پایین ممکن بود. درواقع سلاحی با تأثیر کشتار جمعی به‌راحتی در اختیار دولت‌ها قرار می‌گرفت که از سوی آن‌ها خوشایند به نظر نمی‌رسید.
مخالفان توسعه‌ی سلاح‌های مرگ‌بار خودکار تلاش می‌کنند تا روندی مشابه سلاح‌‌های زیستی را برای آن‌ها ایجاد کنند. راسل در بخشی از مصاحبه می‌گوید:
از نظر من، اعتقادات و نظرات افرادی مانند ما اهمیتی ندارد. چرا که چنیی نظراتی منجر به هیچ اقدامی از سوی دولت‌ها نمی‌شود. ما ۷۰ سال تلاش کردیم تا سلاح‌های اتمی داشته باشیم و سپس برای جلوگیری از تصاحب آن‌ها توسط افراد خطاکار، تلاش کردیم. اکنون سلاح‌های LAWS هم می‌توانند به همان اندازه مرگ‌بار باشند. به‌علاوه آن‌ها ارزان‌تر هستند و توسعه‌ی چنین سلاح‌هایی نیز آسان‌تر خواهد بود.

در مقابل تلاش‌های همه‌ی سازمان‌های مردم‌نهاد و مخالفان توسعه‌ی سلاح‌های مرگ‌بار، سازمان ملل حرکتی آهسته دارد. آن‌ها حتی برای مذاکره پیرامون موضوع سلاح‌های مرگ‌بار خودکار هم تعلل می‌کنند. دو فاکتور مهم برای حرکت کند سازمان ملل تصور می‌شود: اول، حرکت سازمان ملل برای تصویب قوانین بین‌المللی همیشه آهسته بوده است و در مقابل روند توسعه‌ی فناوری خصوصا در حوزه‌ی سلاح‌های مرگ‌بار خودکار بسیار سریع پیش می‌رود. دلیل دوم و مهم‌تر اینکه تلاش برای تصویب قوانین مذکور قطعا مخالفتی جدی از سوی برخی دولت‌ها را به‌همراه دارد.
 
آمریکا درکنار رژیم اشغالگر قدس، کره‌جنوبی، بریتانیا و استرالیا تاکنون مخالفت‌هایی جدی با طرح احتمالی سازمان ملل در زمینه‌ی مخالفت با سلاح‌های خودکار مرگ‌بار داشته‌اند. آمریکایی‌ها در توجیه مخالفت‌های خود استدلال‌های قابل‌توجهی دارند. آن‌ها ادعا می‌کنند که LAWS برخی اوقات مزایای انسانی دارد و درصورت تصویب قوانین ممنوعیت در حال حاضر، ظرفیت‌ها ناشناس خواهند ماند. به‌هرحال وزارت دفاع این کشور هم ادعا می‌کند که همیشه نظارتی انسانی روی عملکرد سیستم‌‌های هوش مصنوعی وجود خواهد داشت.
مخالفان توسعه‌ی سلاح‌های LAWS اعتقاد دارند بررسی از سوی سازمان ملل متحد باید در سریع‌ترین زمان ممکن انجام شود. به‌عنوان مثال یاورسکی استدلال می‌کند:
نمی‌‌توان انتظار داشت که عملکرد LAWS به کاربردهای نظامی محدود شود. درواقع با توسعه‌ی فناوری، افراد بسیار زیادی خصوصا سازمان‌های غیردولتی و غیر مسئول از آن استفاده خواهند کرد.
 
دستور مرگ با الگوریتم: دوران ربات‌های قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس


در تکمیل استدلال بالا باید بگوییم که جلوگیری از توسعه و استفاده از یک فناوری، وقتی افراد زیادی از آن استفاده نمی‌کنند آسان‌تر خواهد بود. به‌بیان‌دیگر وقتی LAWS در اختیار همه قرار گیرد، دیگر نمی‌‌توان راهکاری برای ممنوعیت استفاده‌های ناصحیح آن پیاده‌سازی کرد. به‌همین دلیل مخالفان از سال‌ها پیش تلاش می‌کنند تا بررسی LAWS را به صحن رسمی سازمان ملل برسانند.
در بررسی استفاده از سلاح‌‌های خودکار موارد متعددی باید مطالعه شود. به‌عنوان مثال اگر بپرسیم چه چیزی یک سیستم را کاملا خودکار می‌کند، با دوراهی جالبی روبه‌رو می‌شویم. فرض کنید کره‌جنوبی در مرز خود با کره‌ی شمالی سیستم‌های اسلحه‌ای نصب کند که به‌صورت خودکار افراد تأییدنشده را هدف قرار دهند (سلاح مرگ‌بار خودکار). البته سلاح این‌چنینی شبیه به مین هم عمل می‌کند که اکنون مخالفتی با نصب آن در مرزها وجود ندارد. حتی راسل اعتقاد دارد چنین اسلحه‌ای در تشخیص نیروهای متخاصم بهتر از مین عمل می‌کند و شاید استفاده از آن مفید هم باشد.
 
در مثالی دیگر می‌توان مهمات با عملکرد آهسته را بررسی کرد. آن‌ها به فضا پرتاب می‌شوند و در محیطی دایره‌ای و گسترده پرواز می‌کنند. به محض اینکه رادار هدف آن‌ها را شناسایی کند، به همان رادار حمله می‌کنند. چنین حمله‌هایی بدون دخالت انسان انجام می‌شوند. درنتیجه آن‌ها هم سلاح‌های خودکار هستند، اما به‌جای انسان‌ها، رادارها را هدف قرار می‌دهند.
چالش‌های بالا درکنار موارد متعدد دیگر باید برای بهینه‌سازی ممنوعیت احتمالی از سوی سازمان ملل متحد، بررسی و حل شوند. دراین‌میان آمریکا به‌عنوان پیش‌گام هوش مصنوعی مخالفت‌های جدی با بررسی‌های این‌چنینی دارد. درنتیجه کشوری که می‌تواند بهترین بررسی‌های علمی را روی چالش‌ها انجام دهد، از آن سر باز می‌زند.
روش دیگری از مخالفت با سلاح‌های خودکار وجود دارد که احتمال استفاده از آن‌ها در صنایع نظامی را کمتر می‌کند. مخالفت دانشمندان هوش مصنوعی از شرکت در پروژه‌هایی با کاربردهای نظامی، می‌تواند توسعه‌ی سلاح‌های مبتنی بر هوش مصنوعی را با چالش مواجه کند. درحال حاضر اکثر دانشمندان بزرگ هوش مصنوعی در سیلیکون‌ولی شاغل هستند و برای ارتش آمریکا کار نمی‌کنند. همکاری سیلیکون‌ولی با ارتش هم همیشه با بازخوردهای شدید همراه بوده است. به‌عنوان مثال کارمندان گوگل وقتی متوجه پروژه‌ی مشترک شرکت با ارتش تحت عنوان Maven شدند، اعتراضی سراسری ترتیب دادند که منجر به عدم تمدید پروژه شد. کارمندان مایکروسافت همچنین رویکردی در گذشته داشته‌اند.
 
دستور مرگ با الگوریتم: دوران ربات‌های قاتل بیش از همیشه به ما نزدیک است؛ قسمت پایانی+عکس

در نتیجه‌ی رخدادهای بالا می‌توان پیش‌بینی کرد که کارمندان دنیای فناوری توانایی ایجاد تأخیر در روند توسعه‌ی سلاح‌ها را دارند. آن‌ها می‌توانند با شرکت نکردن در پروژه‌های مذکور، توسعه را به تعویق بیندازند. برنامه‌های گروهی متعددی هم برای ایجاد چنین حسی بین متخصصان و کارمندان حوزه‌ی هوش مصنوعی ایجاد شده است.

چقدر باید نگران باشیم؟
ربات‌های قاتل خطرات بسیار زیادی به‌همراه دارند. آن‌ها می‌توانند قتل‌عام و کشتار گسترده را به فرایندی آسان برای دیکتاتورها و سازمان‌های غیرمسئول تبدیل کنند. درواقع گروهی که چنین ابزارهایی در دسترس داشته باشد می‌تواند ادعای شکست‌ناپذیری کند. چنین فرضیه‌ای به خودی خودی ترسناک است.
وضعیتی کنونی سلاح‌های مرگ‌بار خودکار نشانه‌ای از روند بسیار گسترده‌تر هستند. هوش مصنوعی امکاناتی را برای مردم فراهم می‌کند که قبلا وجود نداشتند. سرعت ایجاد فرصت‌ها هم به‌گونه‌ای انجام می‌شود که ظرفیت‌های ما بسیار سریع‌تر از تفکر، سرعت واکنش و سیاست‌های عمومی رشد می‌کنند. با رشد هوش مصنوعی می‌توان انتظار داشت که این روند، بی‌ثباتی بیشتری را هم تجربه کند.
استفاده از الگوریتم‌ها در هر زمینه‌ای که باشد، تهدیدهای بالقوه‌ای را به‌همراه دارد. چه آن‌ها ر ادر ربات‌های قاتل استفاده کنیم، یا حتی برای شناسایی اخبار دروغ به کار ببریم، جنبه‌های حیاتی از جامعه را در اختیار این موجودات بی‌جان قرار داده‌ایم. درواقع شاید آن‌ها به‌خوبی جنبه‌های مورد نظر ما را درک نکنند و در مسیر اهدافی بهینه‌سازی شوند، که مشابه با اهداف مورد نظر ما نباشد.
سیستم‌های پیشرفته‌ی هوش مصنوعی هنوز به زندگی ما راه نیافته‌اند. البته آن‌ها هر روز به ما نزدیک و نزدیک‌تر می‌شوند. اکنون زمان آن است که برای رویارویی با آن‌ها بیش از همیشه آماده شویم. اکنون همه می‌دانیم که بهترین زمان برای تصویب سیاست‌های کاربردی و تفاهم‌های بین‌المللی زمانی خواهد بود که سناریوهای علمی تخیلی و ترسناک گفته شده در بالا، هنوز اتفاق نیفتاده باشند.
newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰
وقتی دل جنگل سوخت

«جام‌جم» در گفت‌وگو با جانشین فرمانده یگان حفاظت سازمان منابع طبیعی کشور بررسی کرد

وقتی دل جنگل سوخت

صدای «مرجان» باید شنیده شود

گفت‌و‌گو با میلاد بنی‌طبا، کارگردان فیلم سینمایی «مرجان» پیرامون دغدغه‌های ساخت و چالش‌های اکران یک فیلم اجتماعی

صدای «مرجان» باید شنیده شود

نیازمندی ها