هوش مصنوعی بهعنوان یک شمشیر دولبه، همزمان هم مشکل را تشدید کرده وهم کلید حل آن رادراختیار دارد. آیا میتوان پذیرفت فناوریای که میتواند محتوایی آنچنان واقعی (دیپفیکها) خلق کند که حتی دقیقترین چشمها را فریب میدهد، اکنون در نقش یک ناجی ظاهر شود؟ این تناقض، ما را به نقطه عطف مهمی در تاریخ ارتباطات هدایت میکند. ما در آستانه مواجهه با واقعیتی هستیم که در آن مرزهای فریب وحقیقت چنان تار شده که اتکای صرف به حواس انسانی دیگر کافی نیست. بحث اصلی اینجاست: آیا هوش مصنوعی صرفا تهدیدی است که باید کنترل شود، یا یک فرصت که باید برای نجات اکوسیستم اطلاعاتی از آن استفاده کرد؟
هوش مصنوعی نهتنها زمینه را برای تولید محتوای فریبنده فراهم کرده بلکه با دستکاری الگوهای انتشار و دریافت اطلاعات، به یک عامل حیاتی در تشدید بحران اخبار جعلی تبدیل شده که این تهدید از ابعاد مختلفی قابل بررسی است.
پایان واقعیت؛ دیپفیک و اخبار جعلی
دیپفیک یکی از خطرات جدی ونگرانکننده درعصر دیجیتال وهوش مصنوعی است که بشریت را تهدید میکند. این مفهوم به استفاده از تکنیکها و الگوریتمهای پیشرفته هوش مصنوعی برای ایجاد محتوای جعلی اشاره دارد که به نظر واقعی و قابل تصور میرسد. دیپفیک میتواند شامل تصاویر، صداها، ویدئوها و حتی متنهایی باشد که با استفاده از الگوریتمهای هوش مصنوعی بهطور واقعگرایانه تولید شدهاند.یکی ازبزرگترین خطرات دیپفیک،تضعیف قابلیت اعتماد عمومی است.
با انتشار ویدئوها و تصاویر جعلی افراد میتوانند به آسانی از محتوای معقولانه و واقعی جدا شوند و به ترویج اطلاعات غلط ونادرست پرداخته ودرنتیجه باورهاوعقایدجامعه راتحتتأثیرقراردهند.همچنین دیپفیک میتواندبرزندگی شخصیتهای عمومی و حتی افراد عادی تأثیر بگذارد. با استفاده از این تکنولوژی میتوان تصاویر و ویدئوهایی تولید کرد که واقعی به نظر برسند و در نتیجه شخصیتها را در موقعیتها و رویدادهایی نمایش دهند که درواقع وجود ندارند. این میتواند باعث تحقیر، آزار و اذیت شخصیتها شده و در نتیجه خسارت جدی به جامعه وارد کند.
ارتش نامرئی؛ هوش مصنوعی و رباتها
علاوه بر دستکاری و تولید محتوا توسط دیپفیک، هوش مصنوعی در توزیع محتوا نیز از طریق رباتها نقش دارد.علاوه بر میلیاردها انسان،میلیونها ربات کاربرشبکههای اجتماعی وجوددارندکه ازرسانههای اجتماعی استفاده میکنند. رسانههای اجتماعی به خانه امن میلیونها ربات اجتماعی تبدیل شدهاند که اخبار جعلی را منتشر میکنند. تحقیقات نشان میدهد که سال ۲۰۱۷، بیش از ۱۹۰ میلیون ربات در شبکههای اجتماعی جولان میدادند. اگر آن روز ۸.۵درصد توییتر در دست رباتها بود، امروز با پیشرفت هوش مصنوعی، احتمالا با ارتشی میلیاردی طرف هستیم که تشخیصشان از انسانهای واقعی، تقریبا غیرممکن شده است. هوش مصنوعی به رباتها اجازه میدهد تا رفتار کاربران اینترنتی مانند الگوهای ارسال را شبیهسازی کنند که به انتشار اخبار جعلی کمک میکند.
الگوریتمها چطور ما را ایزوله میکنند؟
این بخش را باید با استفاده از نظریه «حباب فیلتر» تبیین کنیم. نظریه حباب فیلتر به دیدگاهی اشاره دارد که براساس آن فناوریهای ارتباطی بهخصوص شبکههای اجتماعی برای کاربرانی که از آنها استفاده میکنند، نوعی حباب اطلاعاتی ایجاد میکنند. به این معنا که الگوریتمهای هوش مصنوعی استفادهشده در این فناوریها بهصورت خودکار برای هر کاربر، محتوا و اخباری را به نمایش میگذارند که براساس سلیقه، نظرها و رفتارهای آن کاربر جذاب به نظر میرسد.
این حباب اطلاعاتی به تقویت دیدگاههای قبلی و جلوگیری از دسترسی به دیدگاههای متفاوت و متنوعتر منجر میشود. درواقع این نظریه بر این اصل تکیه دارد که هر کاربر با توجه به نظرها و سلیقه شخصی خود، اخبار و محتواهایی را میخواهد که با دیدگاهش سازگار باشد اما این مسأله به نوعی به کاهش تنوع اطلاعاتی، تشدید تفاوتهای فرهنگی و سیاسی و حتی افزایش اخبار جعلی منجر میشود. زیرا افراد درون حباب اطلاعاتی خود عمدتا با محتوایی روبهرو میشوند که دیدگاههای قبلیشان را تأیید میکند و در نتیجه کمتر با اطلاعات نقادانه یا مخالف مواجه میشوند.
اما این تنها یک روی سکه هوش مصنوعی است.این فناوری فقط یک تهدید نیست بلکه تنها ابزاری است که قدرت و سرعت کافی برای مقابله بااین حجم از اطلاعات رادارد.هوش مصنوعی میتواند درکسری ازثانیه، هزاران خبر را بررسی کند و با دقتی که روزبهروز بیشتر میشود، درست را از نادرست تشخیص دهد.
حلاجی دنیایی از دادهها
الگوریتمهای هوش مصنوعی میتوانند حجم عظیمی از دادهها را به سرعت و با دقت بالا پردازش کنند و اخبار جعلی را با بررسی عواملی مانند سبک نگارش، منبع انتشار و تناقض با اطلاعات موثق شناسایی کنند.هوش مصنوعی همچنین به مرور زمان و با جمعآوری دادههای بیشتر میتواند درتشخیص اخبارجعلی دقیقتر عمل کند.الگوریتمها میتوانند با شناسایی الگوهای جدید در اخبار جعلی وبهروزرسانی مداوم دانش خودباجدیدترین روشهای فریبکاری سازگار شوند.ازسوی دیگر، استفاده ازهوش مصنوعی برای تشخیص اخبارنادرست،نیاز به بررسی دستی تکتک اخبار توسط انسان را کاهش میدهد.