الگوریتم‌های خون‌آشام

در دهه‌های گذشته، جنگ‌ها همواره براساس معادلات انسانی، زمان‌بندی‌های مشخص لجستیکی و بررسی‌های میدانی فرماندهان پیش می‌رفت. اما در رویدادها و درگیری‌ها اخیر، شاهد رونمایی از یک هیولای جدید در زرادخانه استکبار جهانی بودیم: هوش مصنوعی نظامی. ائتلاف ایالات متحده آمریکا و رژیم صهیونیستی در تقابل با جمهوری اسلامی ایران، در اقدامی که مرزهای حقوق بین‌الملل و اخلاق جنگ را فرسنگ‌ها جابه‌جا کرد، کنترل بخش عظیمی از ماشین جنگی خود را به دست الگوریتم‌ها و کدهای کامپیوتری سپردند. این گزارش قصد دارد به بررسی ابعاد پنهان و فاجعه‌بار استفاده از هوش مصنوعی در این جنگ بپردازد؛ تقابلی که در آن سردمداران غربی نشان دادند برای ضربه‌زدن به مقاومت ملت ایران، حاضرند حتی از قدرت تصمیم‌گیری انسانی خود نیز چشم‌پوشی کرده و جان انسان‌های بی‌گناه را فدای سرعت پردازش ماشین‌ها کنند.
در دهه‌های گذشته، جنگ‌ها همواره براساس معادلات انسانی، زمان‌بندی‌های مشخص لجستیکی و بررسی‌های میدانی فرماندهان پیش می‌رفت. اما در رویدادها و درگیری‌ها اخیر، شاهد رونمایی از یک هیولای جدید در زرادخانه استکبار جهانی بودیم: هوش مصنوعی نظامی. ائتلاف ایالات متحده آمریکا و رژیم صهیونیستی در تقابل با جمهوری اسلامی ایران، در اقدامی که مرزهای حقوق بین‌الملل و اخلاق جنگ را فرسنگ‌ها جابه‌جا کرد، کنترل بخش عظیمی از ماشین جنگی خود را به دست الگوریتم‌ها و کدهای کامپیوتری سپردند. این گزارش قصد دارد به بررسی ابعاد پنهان و فاجعه‌بار استفاده از هوش مصنوعی در این جنگ بپردازد؛ تقابلی که در آن سردمداران غربی نشان دادند برای ضربه‌زدن به مقاومت ملت ایران، حاضرند حتی از قدرت تصمیم‌گیری انسانی خود نیز چشم‌پوشی کرده و جان انسان‌های بی‌گناه را فدای سرعت پردازش ماشین‌ها کنند.
کد خبر: ۱۵۴۸۴۹۲
نویسنده محسن نظری-روزنامه نگار

  وقتی ماشین‌ها در کسری از ثانیه شلیک می‌کنند
یکی از هولناک‌ترین ابعاد استفاده از هوش مصنوعی در این نبرد، مفهوم فشرده‌سازی تصمیم‌گیری و تغییر ماهیت زنجیره کشتار است. بر اساس ادعاها، ارتش آمریکا در ۲۴ ساعت اول حمله به ایران توانسته است  ده‌ها هدف را مورد اصابت قرار دهد؛ رکوردی شوم که روزنامه واشنگتن‌پست نیز صراحتا بخشی از این توان تخریبی را به استفاده از هوش مصنوعی نسبت داده است. در ادبیات نظامی، از مسیر میان شناسایی یک هدف تا نابودی آن با عنوان زنجیره کشتار یاد می‌شود؛ زنجیره‌ای که به‌طور کلاسیک مراحل متعددی مانند کشف، تشخیص، رهگیری، تصمیم، تخصیص سلاح و درنهایت اجرا را شامل می‌شود. هرکدام از این حلقه‌ها، در گذشته نیازمند مداخله چندین سطح فرماندهی، ارزیابی‌های حقوقی و تطبیق با اهداف کلان عملیاتی بود. اما نظام‌های هوش مصنوعی که در جنگ تحمیلی علیه ایران به کار گرفته شده‌اند، دقیقا همین زنجیره را هدف گرفته‌اند: کوتاه‌کردن آن، اتوماتیک‌کردن آن، و درنهایت غیربشری‌کردن آن.
الگوریتم‌هایی که روی تصاویر پهپادها، داده‌های ماهواره‌ای و رهگیری‌های مخابراتی آموزش دیده‌اند، به‌گونه‌ای طراحی شده‌اند که در لحظه ــ بدون خستگی، بدون توقف و بدون تمرکز بر پیامد انسانی ــ الگوهای رفتار مشکوک یا نشانه‌های هدف نظامی را بیرون بکشند و بر روی نقشه جنگی، به‌صورت نقطه‌های قابل شلیک علامت‌گذاری کنند. این همان چیزی است که فرماندهان آمریکایی و صهیونیستی از آن به‌عنوان فشرده‌سازی تصمیم‌گیری و تسریع زنجیره کشتار یاد می‌کنند؛ یعنی حذف حداکثری زمان تأمل.
وقتی یک سامانه هوشمند، همزمان صدها نقطه را به‌عنوان هدف بالقوه مناسب روی صفحه فرمانده ظاهر می‌کند، فشار زمانی برای انتخاب و شلیک چندبرابر می‌شود. فرماندهی که تا دیروز برای هر هدف، چند گزارش مکتوب می‌خواند و جلسات توجیهی می‌گذارد، امروز با پنلی مواجه است که روی آن نوشته شده: پنجره فرصت: چند دقیقه. در چنین فضایی، سؤال کلیدی دیگر این نیست که آیا حمله ضروری و متناسب است؟ بلکه این است که آیا می‌توانیم قبل از بسته‌شدن پنجره، شلیک کنیم؟ این جابه‌جایی، قلب بحران اخلاقی جنگ الگوریتمی است.
این مقیاس از تهاجم، در تاریخ جنگ‌های کلاسیک بی‌سابقه است. در ۱۲ ساعت آغازین جنگ، نیروهای آمریکا و رژیم صهیونیستی حملات زیادی به اهداف ایرانی انجام دادند؛ درحالی‌که در درگیری‌های قبلی، چنین حجمی از عملیات روزها یا هفته‌ها به طول می‌انجامید. دلیل این سرعت دیوانه‌وار چیست؟ پاسخ در هدف‌گیری مبتنی بر الگوریتم و اطلاعات مبتنی بر داده نهفته است. سیستم‌های هوش مصنوعی با بلعیدن و پردازش جریان‌های عظیم داده‌ها ازجمله تصاویر پهپادها، رصدهای ماهواره‌ای و رهگیری‌های مخابراتی چرخه‌های برنامه‌ریزی را از چند روز به چند ساعت یا حتی چند دقیقه تقلیل داده‌اند.
کریگ جونز، از پژوهشگران این عرصه تاکید می‌کند که نتیجه این فرآیند، اجرای همزمان در مقیاس بزرگ است؛ به این معنا که حمله به سامانه‌های موشکی و زیرساخت‌های حیاتی کشور، دیگر به‌صورت متوالی و مرحله‌به‌مرحله انجام نمی‌شود، بلکه الگوریتم‌ها دستور اجرای موازی و همزمان آنها را صادر می‌کنند. 
   ردپای غول‌های فناوری غربی
پشت پرده این بمباران‌های الگوریتمی، نام شرکت‌های بزرگ فناوری غربی به چشم می‌خورد که با شعارهای فریبنده حقوق بشری، عملا به پیمانکاران ماشین کشتار پنتاگون و ارتش اشغالگر قدس تبدیل شده‌اند. بررسی‌ها نشان می‌دهد که از ترکیب مدل‌های زبانی بزرگ مانند Claude (محصول شرکت Anthropic) به همراه سیستم تحلیلی Maven متعلق به شرکت پالانتیر (Palantir)، برای هدف‌گیری بلادرنگ و اولویت‌بندی اهداف (Real-time targeting) در عملیات جنگی علیه ایران استفاده شده است.
این ادغام خطرناک هوش مصنوعی در گردش‌کارهای امنیت ملی آمریکا، با هدف تحلیل سریع اطلاعات و برنامه‌ریزی جنگی صورت گرفته است. نکته قابل تامل و ریاکارانه ماجرا اینجاست که شرکت‌هایی نظیر Anthropic ابتدا ادعا می‌کنند خطوط قرمزی برای استفاده از محصولات‌شان در سلاح‌های کاملا خودمختار دارند، اما دولت آمریکا به‌سادگی اعلام می‌کند که با کنارگذاشتن تدریجی این شرکت از برخی سامانه‌های دفاعی، سراغ توافق‌نامه‌های جدید با شرکت‌های دیگری نظیر OpenAI برای کاربردهای نظامی می‌رود. این چرخش‌ها نشان‌دهنده اشتهای سیری‌ناپذیر محور غربی ــ صهیونیستی برای تسلیحاتی‌کردن هرگونه دستاورد علمی، بدون توجه به پیامدهای انسانی آن است.
هریک از شرکت‌های فناوری‌ای که نام آنها در کنار پنتاگون و ارتش رژیم‌صهیونیستی آمده، نقشی مشخص در این معماری مرگ‌آور ایفا می‌کند. سامانه‌هایی مانند Maven، که در بطن خود به بستر نرم‌افزاری شرکت‌هایی مانند Palantir متکی هستند، وظیفه جمع‌آوری، هم‌بندی و تحلیل بلادرنگ حجم عظیمی از داده‌های میدانی را بر عهده دارند؛ از تصاویر حرارتی پهپاد تا سیگنال‌های رادیویی و ترافیک تلفن‌همراه. این سامانه‌ها، نقشه‌ای دائما به‌روز از میدان نبرد می‌سازند و هر چند ثانیه یک‌بار، احتمال حضور هدف ارزشمند در هر نقطه را بازمحاسبه می‌کنند.
در کنار این زیرساخت تحلیلی، مدل‌های زبانی پیشرفته مانند همان خانواده‌ای که در محصولاتی چون Claude دیده می‌شود نقشی کمتر دیده‌شده اما عمیقا خطرناک دارند: آنها به افسران و تحلیلگران نظامی کمک می‌کنند تا گزارش‌های خام را به روایت‌های قابل عمل تبدیل کنند. به بیان دیگر، مدل زبانی در اتاق عملیات، می‌تواند در ظرف چند ثانیه، ده‌ها گزارش پراکنده میدانی، شنود، تصویر و یادداشت را خلاصه کند، نقاط مشترک را برجسته سازد و پیشنهادهایی از جنس این نقطه را در اولویت حمله قرار دهید روی میز فرمانده بگذارد.
این ادغام نرم میان مدل‌های زبانی و سامانه‌های تحلیلی، مشکل را صرفا چندبرابر نمی‌کند؛ بلکه کیفیت خطای ممکن را تغییر می‌دهد. خطای یک تحلیلگر انسانی با همه سوگیری‌ها و محدودیت‌هایش معمولا قابل ردیابی و استنطاق است: می‌توان از او پرسید چرا یک منبع اطلاعاتی را جدی گرفته و دیگری را نه. اما وقتی این فرآیند به‌صورت نیمه‌خودکار و با میانجیگری الگوریتم انجام می‌شود، مسئولیت در لایه‌ای از ابهام فنی گم می‌شود. فرمانده می‌گوید: سامانه توصیه کرده بود، شرکت می‌گوید: ما فقط ابزار تحلیلی ارائه می‌دهیم، و هیچ‌کس حاضر نیست بپذیرد که این توصیه، درنهایت روی بدن زخمی کودکان و آوار مدرسه‌ای در جنوب ایران پیاده شده است.
در همین حال، شرکت‌هایی که در رسانه‌های غربی با ادبیاتی لبریز از سخن‌گفتن درباره اخلاق هوش مصنوعی، کاهش ریسک و مسئولیت‌پذیری مدل‌ها خود را بزک می‌کنند، عملا حاضر نشده‌اند یک خط قرمز شفاف و الزام‌آور در برابر استفاده جنگی از محصولات‌شان ترسیم کنند. نتیجه روشن است: هرقدر مطالبه افکار عمومی نسبت به این پیوند پنهان سیلیکون‌ولی ــ پنتاگون ــ تل‌آویو کمرنگ‌تر باشد، ماشین تسلیحاتی‌کردن دستاوردهای علمی با سرعت بیشتری خواهد چرخید.
   

توهم دقت و فاجعه در جنوب ایران
استفاده از سیستم‌های تصمیم‌یار در جنگ، یک پیامد به‌شدت خطرناک روانی و ساختاری به همراه دارد که متخصصان از آن با عنوان تخلیه شناختی یاد می‌کنند. در این حالت، فرماندهان و اپراتورهای انسانی با اتکای بیش از حد به خروجی الگوریتم‌ها، مسئولیت‌پذیری و قضاوت اخلاقی خود را از دست داده و به‌راحتی به توصیه‌های ماشین تن می‌دهند. نتیجه این فرسایش عامل انسانی در تصمیم‌گیری‌های کشنده، چیزی جز رقم‌خوردن فجایع انسانی نیست. دشمن همواره ادعا می‌کند که سلاح‌های هوشمندش دارای دقت نقطه‌زنی است، اما واقعیت میدانی پرده از یک جنایت تمام‌عیار برمی‌دارد. به‌عنوان نمونه‌ای از این خطاهای الگوریتمی و بی‌تفاوتی انسانی، می‌توان به حمله فاجعه‌بار به مدرسه‌ای در جنوب ایران اشاره کرد که به شهادت حداقل 168 نفر، ازجمله تعداد زیادی از دختران دانش‌آموز بی‌گناه منجر شد. شدت این جنایت که مستقیما حاصل اعتماد کورکورانه به الگوریتم‌های هوش مصنوعی محسوب می‌شد، به حدی بود که حتی سازمان ملل متحد نیز نتوانست در برابر آن سکوت کند و آن را نقض شدید حقوق بشر نامید. این خون‌های پاک، سند رسوایی ماشین جنگی دشمن و خط بطلانی بر ادعای جنگ تمیز غربی‌هاست.
روایت رسمی از این حمله، در ابتدا با همان کلیشه قدیمی آغاز شد: هدف، یک مرکز فرماندهی و انبار تسلیحاتی بوده است، و سامانه‌های هوشمند بالاترین سطح دقت را تضمین کرده‌اند. اما چند روز بعد، با کناررفتن آوار و انتشار اسامی شهدا، روشن شد که مرکز فرماندهی در عمل، مدرسه‌ای بوده است؛ جایی که دختران و پسران دانش‌آموز بی‌خبر از آن‌که در الگوریتم‌های دشمن به‌عنوان نقطه داغ علامت‌گذاری شده‌اند، زندگی روزمره‌شان را می‌گذرانده‌اند.
   

مرگ حقوق بشر در مسلخ الگوریتم‌ها
از منظر حقوقی، دکترین نبرد تقویت‌شده با هوش مصنوعی فاتحه حقوق بین‌الملل را خوانده است. شالوده حقوق بین‌الملل بشردوستانه بر فرض وجود قضاوت انسانی در دو اصل اساسی تناسب و تمایز (بین نظامیان و غیرنظامیان) استوار است. اما زمانی که زمان‌بندی تصمیم‌گیری‌ها توسط هوش مصنوعی به چند ثانیه فشرده می‌شود، عملا هیچ فضا و فرصتی برای بررسی‌های حقوقی و اخلاقی باقی نمی‌ماند. آمریکا و رژیم‌صهیونیستی با پنهان‌شدن پشت نقاب کدهای کامپیوتری، در حال ایجاد یک بدعت خطرناک در نظام بین‌الملل هستند؛ بدعتی که در آن ماشین‌ها تصمیم می‌گیرند چه کسی زنده بماند و چه کسی کشته شود. ادبیات دانشگاهی و حقوقی معاصر به‌شدت بر لزوم ایجاد چارچوب‌هایی برای جلوگیری از فرسایش عامل انسانی در زمینه‌های کشنده تاکید دارد، اما دشمنان قسم‌خورده ایران نشان داده‌اند که برای دستیابی به اهداف نامشروع خود، هیچ ارزشی برای این چارچوب‌ها و حفظ جان غیرنظامیان قائل نیستند.


ایستادگی انسان در برابر ماشین
آنچه در این جنگ نابرابر تکنولوژیک رخ‌داد، تقابل اراده پولادین یک ملت در برابر الگوریتم‌های بی‌روح و ماشین‌های محاسبه‌گر بود. استفاده مفرط ایالات متحده و رژیم‌صهیونیستی از هوش مصنوعی و واگذاری اختیار شلیک به سیستم‌های داده‌محور، بیش از آن‌که نشان‌دهنده اقتدار آنها باشد، برخاسته از ضعف راهبردی، ترس از رویارویی مستقیم و ناتوانی در تحمل تلفات انسانی نیروهای‌شان است. ماشین کشتار غرب توانست با سرعت و مقیاسی بی‌سابقه بمب‌ها را فرو بریزد، اما نتوانست این واقعیت را پنهان کند که استفاده از هوش مصنوعی به‌عنوان سلاح، بدون نظارت دقیق انسانی، تنها به تکثیر جنایات جنگی و شهادت دانش‌آموزان و غیرنظامیان می‌انجامد. امروز، رسالت رسانه‌ها، حقوقدانان و جامعه جهانی این است که در برابر این تروریسم دیجیتال بایستند و اجازه ندهند سردمداران استکبار، با استفاده از کلیدواژه‌های پرزرق‌وبرق فناوری، بی‌گناهان را در پای سرورها و الگوریتم‌های خود قربانی کنند. ملت ایران، با عبور از این طوفان‌های تکنولوژیک، بار دیگر اثبات کرد که درنهایت، این ایمان و اراده انسانی است که سرنوشت میدان‌ها را رقم می‌زند، نه کدهای نوشته شده در سیلیکون‌ولی و تل‌آویو.

newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها