اگر نتوانیم از وقوع قتل در دنیای واقعی جلوگیری کنیم، چطور می‌خواهیم جلوی چنین فجایعی را در دنیای مجازی بگیریم؟ آن هم جایی که کلیک یک دکمه یا حرکت مچ دست باعث کشته شدن آواتار می‌شود.
کد خبر: ۱۳۶۸۳۵۲
به گزارش جام جم آنلاین، فعلا هیچ پلیسی برای اجرای هیچ قانونی در آن وجود ندارد، نه مجازی و نه غیرمجازی. متاورس (Metaverse) یا فرالَم* به دنیای مجازی اشاره دارد که در آن افراد می‌توانند از طریق آواتار زندگی، کار و بازی کنند. در واقع هنوز وجود ندارد، اما شرکت‌های فناوری میلیارد‌ها دلار برای توسعه این فناوری سرمایه‌گذاری می‌کنند. با این حال یک‌سری نگرانی‌های ایمنی مرتبط با توسعه این فناوری وجود دارد. فرالم جایی است که فعلا فقط قوانین الگوریتم‌ها و مطالبات کارشناسان این الگوریتم‌ها بر آن حاکم است. اگر در فرالم «کشته» شوید، آیا باید آن را جرمی هولناک در‌نظر گرفت که طبق قانون به مجازات نیاز دارد؟ این یکی از موضوعاتی بود که هفته گذشته در یکی از نشست‌های مجمع جهانی اقتصاد (World Economic Forum) از یکم تا پنجم خرداد ۱۴۰۱ در داووس کشور سوئیس از جانب مدیران تجاری بزرگ و رهبران جهان مورد بحث و بررسی قرار گرفت.

مجمع جهانی اقتصاد نخستین‌بار در دی ۱۳۴۹/ ژانویه ۱۹۷۱ به‌عنوان جایی برای جمع شدن رهبران اقتصادی و سرمایه‌داران اروپایی راه‌اندازی شد و اکنون از مهم‌ترین نشست‌های سالانه اقتصاددانان، سیاستمداران، صاحبان سرمایه، نظریه‌پردازان و هنرمندان برای تبادل نظر درباره مسائل روز محسوب می‌شود. هفته گذشته در یک سخنرانی در میزگردی در مجمع جهانی اقتصاد، این بحث مطرح شد که دولت‌ها چگونه باید به ظهور «متاورس» واکنش نشان دهند. در این نشست، وزیر هوش مصنوعی امارات این ایده را مطرح کرد که دولت‌های جهان باید درباره مجموعه‌ای از سیاست‌ها و استاندارد‌های مربوط به این دنیای جدید بحث و توافق کنند. عمر سلطان العلما افزود، یکی از جنبه‌های این مثال «ترور افراد در فرالم» است. استدلال وی این بود که واقع‌گرایی در فرالم می‌تواند به معنای اعمال افراطی مانند آزار و اذیت یا قتل در واقعیت افزوده باشد که می‌تواند تأثیر قابل توجهی بر روان یک فرد در واقعیت فیزیکی داشته باشد. هیچ پاسخ روشنی در مورد چگونگی مقابله با این موضوع وجود ندارد، اما او معتقد است این سوالی است که بشریت باید در آینده نزدیک به یافتن پاسخی برای آن بپردازد.

قتل آواتار، صرفا به معنی حذف آن نیست

نکته‌ای که در اینجا کارشناسان روی آن بحث کرده‌اند این است که موضوع مورد بحث، صرفا محدود به حذف یک آواتار در فرالم نیست؛ بلکه آن‌ها دست روی اخلاقیات و آسیب وارد آمده بر روان کسانی گذاشته‌اند که شاهد فرآیند چنین قتل‌هایی در فرالم ممکن است باشد. آن‌ها در فرالم کشته شدن آواتاری را می‌بینند که در آن شخصی از نظر احساسی روی آن سرمایه‌گذاری کرده است (چه اول شخص باشد یا سوم شخص) و در معرض خشونتی قرار گرفته که مایه نگرانی است. کارشناسان در این نشست با حذف آداب و رسوم اجتماعی و موانع از دنیای واقعیت مجازی، احتمال وقوع و تکرار حوادث این‌چنینی را بسیار زیاد می‌دانند؛ از این‌رو لازم است در‌خصوص چنین مواردی در سطح سازمان ملل، اتحادیه بین‌المللی مخابرات (ITU) یا نهاد‌های غیردولتی که در آن استاندارد خاصی تعیین شده است، گفتگو شود. نظیر چنین استاندارد‌هایی تا حد زیادی اکنون در اینترنت وجود دارد. برای مثال محتوای وب تاریک (Dark web) در بسیاری از کشور‌ها غیرقانونی است.

اکنون سوال این است که آیا وزن مسؤولیت اخلاقی نسبت به موجودیت یک آواتار باید به اندازه جان انسان در دنیای واقعی باشد؟ آیا پس از قتل در فرالم، باید مجرم را دستگیر و محاکمه کرد؟ چنین چیزی ممکن است پیچیده‌تر از آن باشد که به‌نظر می‌رسد. مثلا در فرالم چگونه بین قتل عمد و قتل غیرعمد تفاوت قائل می‌شوید؟ به نظر می‌رسد باید قوانین کاملا جدیدی برای تعامل‌ها ذیل فناوری واقعیت افزوده وضع شود. البته که چنین چیزی غیر‌ممکن نیست، اما آیا چنین قوانینی جذابیت فرالم را تضعیف نمی‌کند؟

قانون‌گذاری در فرالم آسان نیست

نباید فراموش کنیم هزاران سال طول کشیده است تا مجموعه‌های حقوقی هر کشور ذیل تمدن بشری شکل بگیرد. قرن‌ها گذشته است تا رویه‌های قضایی ایجاد شود. ما از مقوله‌ای حرف می‌زنیم که تا این حد عمیق است. قوانین جزایی قتل در دنیای واقعی با واقعیتی که برساخته تخیل بشر در فضای فرالم است، سازگار نیست. هیچ تطابق ساده و یک به یکی میان دنیای واقعی با واقعیت مجازی وجود ندارد. این‌ها دو حوزه کاملا متفاوت از پاسخگویی هستند. در دنیای واقعی، بشر ورود به واقعیت را انتخاب نمی‌کند، اما می‌تواند وارد واقعیت مجازی شود. مسلما اگر فرالم به محل مورد علاقه «قاتلان سریالی» تبدیل شود، مطمئن‌ترین کار این است که دیگر واردش نشویم.

هنوز کار‌های زیادی برای شکل‌گیری فرالم باید انجام شود و فعلا در حد یک محیط واقعیت افزوده غوطه‌ور است که در آن افراد می‌توانند از یک آواتار دیجیتال برای تعامل با دیگران و دنیای مصنوعی اطراف استفاده کنند. این ایده هنوز به‌طور کامل محقق نشده است، اما شرکت‌های فناوری مانند Meta و Epic Games میلیارد‌ها دلار برای توسعه این فناوری سرمایه‌گذاری کرده‌اند. هرچند پلتفرم‌هایی مانند VRChat سال‌هاست وجود دارد و بازی‌های چندنفره آنلاین مانند World of Warcraft به مردم این امکان را می‌دهد که برای مدت طولانی‌تری در آن گرد‌هم بیایند.

هر پلتفرم باید قوانین خود را داشته باشد

کریس کاکس (Chris Cox) مدیر ارشد تولید شرکت متا نیز در همین پنل صحبت می‌کرد. او تشریح کرد که چگونه فرالم احتمالا مکانی متنوع با چند پلتفرم مختلف خواهد بود که همگی در آن طبق قوانین، هنجار‌ها و فرهنگ خود عمل می‌کنند. در حالی‌که کاکس در مورد نیاز به برخی استاندارد‌های مورد توافق بین‌المللی صحبت می‌کرد، پیشنهاد کرد پلتفرم‌های مختلف نیز مسؤولیت تعیین استاندارد‌ها در پلتفرم خود را بپذیرند.
کاکس توضیح داد: «درست مانند زمانی است که شما در یک باشگاه قدم می‌زنید و قوانین متفاوتی بر آن مکان حاکم است. برخی از آن‌ها هنجار‌های اجتماعی است و برخی دیگر هم قوانینی است که کسانی وضع کرده‌اند که آن مجموعه را اداره می‌کنند.»

در فرالم نیز مانند اینترنت، شرکت‌های خدماتی متنوعی را خواهید داشت که سیستم‌های متفاوتی را با قوانین متفاوت اجرا می‌کنند. برخی از آن‌ها بسیار بازتر خواهند بود از این نظر رتبه‌های متنوعی خواهند داشت. کاکس افزود: «مسلما برخی در مورد ایمنی و صداقت کم و بیش سختگیر خواهند بود. احتمالا در فرالم هم چیزی مانند یک سیستم رتبه‌بندی وجود خواهد داشت که نظیر آن را برای فیلم، موسیقی و انواع دیگر محتوا داریم تا والدین یک کودک یا یک جوان بتوانند تا حدودی از قوانین موجود در محیط خود آگاه شوند.»

منابع: IFL Science و Medium و CNBC
کاظم کوکرم - دبیر گروه دانش / روزنامه جام جم 
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها