مدیرکل سابق نظام مدیریت امنیت اطلاعات از اهمیت حفظ امنیت داده‌ها در حوزه هوش‌مصنوعی می‌گوید

امنیت داده؛ مهم‌ترین رکن هوش مصنوعی

سازمان ملی هوش‌مصنوعی در ۱۹ تیر ۱۴۰۳ تاسیس شد. از اهداف مهم این سازمان که سبب‌شده به‌عنوان نهادی مستقل زیر‌نظر ریاست‌جمهوری تعریف شود این است که بتواند با قدرت کافی از همه اجزای دولتی و حتی غیردولتی شامل بخش‌خصوصی، بخش‌عمومی و غیردولتی داده‌های مورد نیازشان را جمع‌آوری کند و آنها را در اختیار توسعه‌دهندگان هوش‌مصنوعی بگذارد.
کد خبر: ۱۴۷۵۴۹۸
نویسنده هدا عربشاهی - گروه دانش
 
وقتی صحبت از این حجم وسیع داده‌ها می‌شود مسأله امنیت و حفظ اطلاعات اهمیت ویژه‌ای می‌یابد. اهمیتی که سازمان ملی هوش‌مصنوعی هم به آن تاکید کرده و قصد دارد با جمع‌آوری، پردازش و حفظ داده‌ها، آنها را به‌روشی محرمانه و امن در اختیار توسعه‌دهندگان قرار دهد. دکتر امین گلستانی، مدیرکل سابق نظام مدیریت امنیت اطلاعات وابسته به سازمان فناوری اطلاعات ایران در گفت‌وگو با جام‌جم درخصوص اهمیت امنیت داده‌ها می‌گوید: «به موازات تسهیلات و قابلیت‌های مفیدی که فناوری‌ها ارائه می‌کنند شاهد تهدیدها و مخاطراتی هستیم که درکنار توسعه فناوری، درحال پیشرفت و پیچیده‌تر شدن هستند. بنابر برآورد موسسه مکنزی داده‌ها گردش مالی سالانه ۳۰۰میلیارد دلار دارند و حجم این بازار هرروز درحال افزایش است و این فرصتی طلایی برای هکرهای داده‌ها و مهاجمان سایبری تلقی می‌شود.

 از سوی‌ دیگر، هوش‌مصنوعی هم از بازار بسیار سودآوری برخوردار است تا جایی‌ که براساس اعلام موسسات مرجع در بازار هوش‌مصنوعی، رشد این حوزه هم به‌صورت تصاعدی رو به ‌افزایش است. این موضوع دلیل دیگری است که براساس آن باید بیش‌از پیش به فکر امنیت داده‌ها به‌ویژه در بخش هوش‌مصنوعی باشیم.»

امین گلستانی، مدیرکل سابق نظام مدیریت امنیت اطلاعات که همچنین ریاست اداره تدوین استانداردهای حوزه فناوری اطلاعات را هم در کارنامه دارد، درخصوص مفهوم داده‌ها و تقسیم‌بندی آنها توضیح می‌دهد: «داده‌ها بیان و نمایش پدیده و مفاهیم‌اند و معمولا در سه بخش اصلی داده‌های مصنوعی، نیمه‌مصنوعی و ترکیبی دسته‌بندی می‌شوند. ازاین‌رو، ماهیت اصلی داده‌ها در ورودی سامانه‌ها تفاوتی ندارد و انسان آن را یا به‌طور مستقیم تولید می‌کند یا ماشین و الگوریتم‌ها، نوع پالایش و به‌کارگیری داده‌هاست که اهمیت دارد. سامانه‌های هوشمند گاهی در سطح محدود فعالیت می‌کنند و بنابر ظرفیت و توان کارایی خودشان از داده‌ها برداشت می‌کنند، گاهی وظیفه خاصی را به‌عهده می‌گیرند و گاهی هم تقلید می‌کنند. اما زمان‌هایی در سطح بسیار بالاتر به‌عنوان ابرهوش‌مصنوعی یا سامانه‌های فراهوشمند عمل می‌کنند و از داده‌ها برداشتی بسیار متفاوتی دارند. درواقع، بسیاری از سامانه‌های اطلاعاتی از جریان داده‌ها فقط استفاده می‌کنند و در فرآیند پردازش، تاثیری بر داده‌ها نمی‌گذارند. درحالی‌که سامانه‌های هوشمند به‌طور مستمر، مشغول تحلیل و موشکافی در داده‌ها و یادگیری‌اند و در هر مرحله از فرآیندهای پردازشی، اثر ارزش‌افزوده‌ای هم به داده‌ها اضافه می‌کنند.»

وی می‌افزاید: «ازاین‌رو، داده‌ها در سامانه‌های هوشمند و به‌‌خصوص خودآگاه بسیار غنی‌تر و با ویژگی‌ها و مشخصات بیشتری در جریان هستند، تاجایی‌که ابرهوش‌مصنوعی از همین‌ داده‌ها البته در حجم‌های بسیار بالاتر وارد مباحث نظریه ذهن (theory of mind) می‌شود و کار را از پردازش‌های ساده به پردازش‌ نیازها، احساسات، نیات، امیال، گرایش‌ها، نگرش، باور، اعتقادات و افکار می‌رساند و در جست‌وجوی توسعه مهارت‌های شناختی_اجتماعی خویش می‌رود تا بتواند درباره حالات روانی فکر کند.»

گلستانی درباره نمونه‌هایی از ابرهوش‌مصنوعی می‌گوید: «ربات‌های اجتماعی یا مشاوران هوشمند از این دسته‌ هستند که موفق می‌شوند داده‌ها و اطلاعات اولیه را غنی‌سازی کنند. درواقع، نگرش طراحان سامانه‌های هوشمند به داده‌ها چنان متفاوت شده که این ماشین‌ها ابعاد و زوایای مختلف داده‌ها را هم درک می‌کنند و داده‌ها را زنده می‌پندارند و از این‌رو، مداوم در پی غنی‌سازی و پرورش آنها هستند و حتی قادر به نوآوری و خلاقیت شده‌اند؛ ویژگی‌ای که تاکنون در مورد موجودی غیر از انسان مشاهده نشده بود و این‌ در حالی است که فقط حدود ۸۰ سال از فرضیه آلن‌ تورینگ، دانشمند انگلیسی گذشته که گفته انسان بااستفاده از اطلاعات و تفکر قادر است تصمیم بگیرد، پس چرا ماشین‌ها نتوانند همین کار را بکنند.»

او همچنین درباره شیوه‌‌هایی که ابرهوش‌مصنوعی برای توسعه از آنها بهره می‌گیرد توضیح می‌دهد: «یادگیری ماشین از ابزار و فناوری‌های داخل هوش‌مصنوعی است و هوش‌مصنوعی درواقع، آمیخته‌ای از شیوه‌های هوشمند است و تلاش می‌کند رفتار ماشین را به رفتار مغز انسان نزدیک کند. یکی دیگر از شیوه‌های هوش‌مصنوعی بینایی ماشین است. در تفاوت این شیوه‌ها با نظریه ذهن باید گفت دومی، نظریه‌ای است که روی ماشین‌ها به‌نحوی اجرا می‌شود که آنها علاوه‌بر پردازش اطلاعات به حوزه درک امیال، احساسات و باورها هم وارد می‌شوند. برای‌مثال، وقتی شما روبه‌روی یک ربات اجتماعی قرار می‌گیرید کاملا احساس می‌کنید با یک انسان صحبت می‌کنید، زیرا او حال روحی شما را هم طی گفت‌وگو لحاظ می‌کند؛ در صورتی‌که ماشین‌های دیگر از چنین قابلیتی برخوردار نیستند و فقط پردازش خطی دارند. اما ماشین هوشمند پردازش در عمق هم دارد و مثل یک روانکاو و روان‌شناس روبه‌روی شما می‌نشیند و باتوجه به حالات روحی و احساسات شما، به‌روشی صحبت می‌کند که جذاب به‌نظر برسد. از شاخص‌ترین نمونه‌های این ربات‌ها سوفیاست؛ ربات انسان‌نمایی که پیشرفت بسیار زیادی کرده است و همچنین ربات‌هایی که در آینده در حوزه سلامت عرضه خواهند شد و قرار است وظیفه مشاوران روان‌شناختی را به‌عهده گیرند. روان‌شناس و روانکاو هم انسان است و این درمانگر وقتی روبه‌روی بیمارش قرار می‌گیرد احتمال دارد خودش هم در وضعیت روحی خوبی نباشد و آن‌طورکه نیاز است نتواند با بیمار ارتباط موثر برقرار کند. اما ربات‌ این‌گونه نیست و در تصمیم‌گیری‌های خودش از تمام داده‌هایی که به‌دست می‌آورد تاثیر می‌گیرد. این داده‌ها می‌توانند مربوط به رفتارهای حسی باشند که از کلام، زبان بدن و از لحن و آهنگ صدای بیمار برداشت می‌کند.»

امنیت داده‌ها چگونه تامین می‌شود؟
از برنامه‌های سازمان ملی هوش‌مصنوعی در آینده نزدیک، توسعه هوش‌مصنوعی در حوزه سلامت است. حوزه‌ای که شاید بیش ‌از سایر بخش‌ها به حفظ حریم‌شخصی و گردش اطلاعات به شیوه‌ای بسیار امن و محرمانه نیازمند است. امین گلستانی درباره این‌که چه شیوه‌هایی را می‌توان برای تأمین امنیت داده‌ها و انتقال ایمن آنها به هوش‌مصنوعی در نظر گرفت توضیح می‌دهد: «بعضی از ابزارها و سکوهای هوش‌مصنوعی با برقراری ارتباط بسیار جذاب با مخاطبان حجم بسیار زیادی از داده‌ها و اطلاعات شخصی افراد را جمع‌آوری می‌کنند. از این‌رو، برخی شرکت‌های بزرگ و بانک‌های بین‌المللی استفاده از ابزار و سکوهای هوش‌مصنوعی را برای کارکنان خودشان ممنوع کرده‌اند تا جلوی سرقت یا افشای اطلاعات مهم و حساس سازمان خودشان بگیرند. همان‌طور که تاریخ نشان داده، استفاده از هر ابزاری بدون رعایت فرهنگ و اصول زیرساختی آن به ضرر و زیان‌های فراوانی منجر می‌شود و اتکای بیش‌ازحد به ماشینی که ممکن است اهداف متفاوتی از اهداف انسان داشته باشد، می‌تواند گام نخست در نقض امنیت باشد. این درحالی است که از توانمندی‌های هوش‌مصنوعی باید هم‌سو با حفظ امنیت بهره برد. برای‌مثال، سامانه‌های هوشمند خودرمزگذار قادرند با استفاده از الگوریتم‌های بسیار پیچیده رمز، داده‌ها و اطلاعات مهم را با روش‌های یادگیری عمیق یا رایانش عصبی در کلیه مراحل پردازش، انتقال و نگاشت داده‌ها از دسترس مهاجمان مصون نگه دارند. شرکت گوگل از استفاده‌کنندگان این روش برای امنیت اطلاعات است. همچنین با به‌کارگیری هوش‌ تهدید می‌توان مخاطرات و تهدیدهای احتمالی را پیش‌بینی کرد و برای مقابله با آنها طرح‌های واکنشی ارائه کرد. استفاده از توکن‌ها و ارزهای دیجیتال هوشمند مثال دیگری از راه‌های حفظ امنیت داده‌هاست.»

امکان همکاری سازمان فناوری اطلاعات ایران و سازمان ملی هوش‌مصنوعی
سازمان فناوری اطلاعات ایران، به‌عنوان نهادی دولتی و زیرمجموعه وزارت ارتباطات و فناوری اطلاعات، به‌ویژه در حوزه امنیت فضای تولید و تبادل اطلاعات فعالیت می‌کند. گلستانی در پاسخ به این سؤال که تا چه حد امکان همکاری میان این سازمان را با سازمان نوپای هوش‌مصنوعی برای حفظ امنیت داده‌ها محتمل می‌داند، می‌گوید: «قطعا سازمان مستقل هوش‌مصنوعی نیازمند تعامل با وزارتخانه‌ها و دستگاه‌های اجرایی و حتی بخش خصوصی است یکی از این ارکان وزارت ارتباطات و فناوری اطلاعات است. خوشبختانه و از اقبال خوب کشور، وزیر ارتباطات دکتر ستار هاشمی، متخصص هوش‌مصنوعی است و در این حوزه اشراف و تسلط کامل دارد و حضور ایشان با این گرایش علمی می‌تواند به شکل‌گیری ارتباط موثری با نهاد مستقل سازمان ملی هوش‌مصنوعی  منجر شود.»

هوش‌ مصنوعی انسان را نابود خواهد کرد؟
سال‌ ۲۰۱۵ استفان هاوکینگ فیزیک‌دان نظری، ایلان ماسک کارآفرین و مالک شرکت‌های تسلا، اسپیس‌ایکس و شبکه اجتماعی ایکس، بیل‌گیتس بنیانگذار شرکت مایکروسافت و استیو وازنیاک ‌بنیانگذار اپل همراه ده‌ها کارشناس و دانشمند علوم رایانه‌ای و هوش‌مصنوعی، طی یک نامه سرگشاده درخصوص خطرات غیرقابل کنترل اعطای مسئولیت‌های اخلاقی‌ به ربات‌ها و هوش‌مصنوعی، علی‌رغم مزایای بی‌شماری که هوش‌مصنوعی می‌تواند به‌طور بالقوه برای بشریت به ارمغان بیاورد، هشدار دادند و خواستار تحقیقات مشخص درباره چگونگی جلوگیری از بعضی تله‌های بالقوه شدند. آنها در این نامه نوشتند که هوش‌مصنوعی قابلیت ریشه‌کنی بیماری و فقر را دارد، اما پژوهشگران نباید چیزی خلق کنند که ناامن و غیرقابل کنترل باشد.

امین گلستانی، مدیرکل سابق نظام مدیریت امنیت اطلاعات، درباره امکان رسیدن هوش‌مصنوعی به درجه‌ای از آگاهی که بتواند آینده ویرانشهری فیلم‌های علمی‌تخیلی را محقق کند به جام‌جم می‌گوید: «وضع قوانین پیشگیرانه برای خطرات احتمالی ناشی ‌از استفاده نادرست از هوش‌مصنوعی موضوع بسیار مهمی است. زیرا با سرعتی که امروزه ماشین‌های هوشمند رشد می‌کنند در آینده فراهوشمندها به‌وجود خواهند آمد. این فراهوشمندها ممکن است تشخیص دهند که انسان برای محیط‌زیست و طبیعت زمین مضر است و می‌توانند بر اساس آسیب‌پذیری‌هایی که در انسان می‌شناسند به‌آسانی بشریت را از بین ببرند. امروزه از کاربردهای بسیار مهم هوش‌مصنوعی در علوم داروسازی است؛ علم داروسازی به بررسی ترکیب پیوندهای میلیونی مولکول‌ها می‌پردازد. تعداد این ترکیب‌ها به حدی زیاد است که بررسی آنها برای رسیدن به دارویی مفید در توان آزمایشگاه فیزیکی نیست. اما ربات این کار را در زمان بسیار کوتاهی انجام می‌دهد. ازاین‌رو، خیلی دقیق می‌تواند بفهمد که برای از بین‌بردن انسان چه چیزی لازم است و خیلی سریع این کار را انجام دهد.»

گلستانی در پاسخ به این سؤال که اساسا چرا ربات باید انسان را حذف کند و خودش در زمین بماند، می‌گوید: «هدف زندگی انسان با هدف حیات ماشین متفاوت است. ما دو گونه‌ای هستیم که لزوما هدف یکسانی نداریم. ربات خودآگاه می‌تواند خودش را شارژ کند و توسعه دهد. در هفته‌های اخیر اعلام شده پوست‌مصنوعی جدیدی از نوعی آلیاژ ساخته شده که قابلیت خودترمیمی دارد و قرار است از آن برای پوشش اسکلت فلزی ربات‌های انسان‌نما استفاده شود.
شاید این ربات‌های انسان‌نما در آینده بتوانند به بخش لذت‌های زندگی دست پیدا کنند. البته لذت‌های زندگی ربات می‌تواند با لذت‌های زندگی انسان متفاوت باشد و برای خودش هدف‌هایی تعیین کند که چرخه حیاتش را در طبیعت بسیار طولانی‌تر از چرخه حیات انسان میرا می‌کند. ازاین‌رو، حتما باید قوانینی وضع شود که ربات‌ها کنترل و محدود شوند و اگر این اتفاق نیفتد روز‌به‌روز ذهن انسان ضعیف‌تر می‌شود.

کمااین‌که امروزه شاهدیم بسیاری از کودکان آن‌قدر از ماشین‌حساب استفاده کرده‌اند که حتی از محاسبه ذهنی یک عملیات جمع یا ضرب ساده هم عاجزند. همین‌مسأله موجب می‌شود در آینده ذهن انسان به‌سمت کندتر شدن پیش برود تاجایی‌که حتی برای انجام کارهای روزمره زندگی‌اش هم محتاج ماشین‌ها باشد. ولی آنها روزبه‌روز خود را توسعه می‌دهند و از داده‌ها، فراداده‌هایی بزرگ‌تر و غنی‌تر می‌سازند و چرا تصمیم نگیرند که گونه برتر حیات باشند؟»

گلستانی ادامه می‌دهد: «خوشبختانه این قوانین پیشگیرانه و بازدارنده وجود دارد و هر ماشینی که ساخته می‌شود رفتارش در بدبینانه‌ترین حالت سنجیده و برای مهار آن راه‌حل ارائه می‌شود. این ماشین می‌تواند خودرو یا وسیله نقلیه‌ای ساده یا ماشینی تصمیم‌گیر و ربات باشد. بنابراین، وقوع حذف بشر به دست ماشین احتمالی است که رخ نمی‌دهد و این پیش‌بینی‌ها بیشتر نوعی آینده‌نگرانی به‌شمار می‌رود و زاییده ذهن نامحدود بشر است زیرا ذهن انسان همیشه سعی می‌کند بدترین حالت را باهدف پیشگیری تصور کند.»

ایران در شاخص جهانی امنیت سایبری
شاخص جهانی امنیت سایبری (GCI) ابزاری است که ازسوی سازمان بین‌المللی ارتباطات (ITU) وابسته به سازمان ملل متحد برای ارزیابی وضعیت آمادگی کشورها در مقابله با تهدیدهای سایبری و توانایی‌های در حفظ امنیت فضای سایبری طراحی شده است. این شاخص که از سال ۲۰۱۵ ایجاد شده‌، گزارش پنجمین دوره آن مربوط به سال ۲۰۲۴ و در روزهای اخیر منتشر شده است.

 امین گلستانی به‌عنوان مدیرکل سابق نظام مدیریت امنیت اطلاعات درخصوص این ارزیابی بین‌المللی به جام‌جم می‌گوید: «هدف اصلی این شاخص غیر از دسته‌بندی، شناسایی کشورهای توانمند در این حوزه برای انجام مشارکت‌های علمی و تخصصی در تدوین استاندارد در حوزه امنیت فناوری اطلاعات است. ازاین‌رو، کسب رتبه موجب می‌شود کشورها در تدوین استانداردها باتوجه به درنظرگرفتن منافع کشورشان نقش داشته باشند؛ درغیراین‌صورت، باید از مصوباتی که دیگر کشورها انجام داده‌اند پیروی کنند. درواقع، کشورها در این فرصت جی‌سی‌آی (‌GCI) تلاش می‌کنند تا جایگاه کرسی علمی خود را بهبود بخشند تا مصوبات انطباق بیشتری با منافع کشورشان داشته باشد.» گلستانی ادامه می‌دهد: «این ارزیابی بین‌المللی در پنج رکن اصلی شامل اقدامات قانونی (Legal)، سازمانی (Organizational)، ظرفیت‌سازی (Capacity Development)، فنی (Technical) و تعامل و همکاری (Cooperation) دسته‌بندی می‌شود و تیم‌ها باید با مسئولان جی‌سی‌آی در تکمیل فرم‌ها و پرسش‌نامه‌ها و ارسال مستندات، همکاری بسیاری نزدیکی داشته باشند تا با چندمرتبه رفت‌وبرگشت فرم‌ها بتوانند به تمام شاخص‌ها و سنجش‌ها پاسخ درست و مستدل بدهند. در دوره ارزیابی قبل، یعنی در دوره چهارم جی‌سی‌آی، برنامه عملیاتی بسیار دقیقی داشتیم و با به‌کارگیری ابزارهای فناورانه و تعامل عالی با مسئولان جی‌سی‌آی موفق شدیم برای اولین‌بار جایگاه کشور را شش رده ارتقا دهیم تا جایی‌که رده ما از ۶۰ به ۵۴ بهبود یافت و امتیاز ۸۱.۰۷ را از ۱۰۰ دریافت کرد که این موفقیت در نوع خودش بسیار چشمگیر است.

از این‌رو، با تجربه و دانش به‌دست‌آمده وارد دوره پنجم ارزیابی شدیم ولی به‌محض ارسال فرم اولیه و آماده‌سازی مدارک بنابر تصمیم ناگهانی مدیران سازمان، بنده که مدیرکل نظام مدیریت امنیت اطلاعات و مدیر مستقیم این تیم بودم از حوزه امنیت سایبری خارج شدم و فعالیت گروه هم متوقف شد. این درحالی‌ بود که ما فقط ۲۰ درصد کار را انجام داده بودیم و ۸۰ درصد آن باقی مانده بود. در آن‌ زمان به مدیران سازمان تذکر دادم که این رویه تغییر می‌تواند به پروژه‌های امنیت که جی‌سی‌آی یکی از ۱۱ پروژه اصلی آن است خسارت وارد کند اما متاسفانه این تصمیم‌گیری و بی‌توجهی به حساسیت‌های حوزه امنیت سایبری موجب شد که رتبه کشور بیش ‌از ۱۵ پله تنزل پیدا کند، آن‌هم درست در لحظه‌ای که زحمات تیم می‌توانست ارتقای جایگاه را برای کشور به همراه داشته باشد.»

برپایه اطلاعات مندرج در وبگاه سازمان بین‌المللی ارتباطات، امتیاز ایران در دوره چهارم شاخص جهانی امنیت سایبری در بخش اقدامات قانونی ۱۸.۴۸ بود که در دوره پنجم این امتیاز به ۱۷.۷۹ از ۲۰ تنزل کرد.

در بخش اقدامات فنی در دوره چهارم ایران امتیاز ۱۹.۰۸ را داشت که در دوره پنجم به ۱۴.۴۹ از ۲۰ کاهش پیدا کرد. در بخش اقدامات سازمانی در دوره چهارم کشور امتیاز ۱۷.۸۴و در دوره پنجم ۱۶.۷۲ را از ۲۰ کسب کرد. در بخش توسعه ظرفیت در دوره چهارم امتیاز ۱۹.۴۸ و در دوره پنجم ۱۰.۲۷ را از ۲۰ به‌دست آورد و به‌خصوص در بخش همکاری در دوره چهارم امتیاز ۲۰ از ۲۰ را کسب کرد درحالی‌که در دوره پنجم توانست فقط ۶.۲۵ امتیاز از ۲۰ را به‌دست آورد که این نتیجه را می‌توان به‌منزله ضعف در تعاملات و مشارکت‌های بین‌المللی کشور در حوزه امنیت سایبری دانست.


newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها