تازه‌ترین خروجی جهان تکنولوژی نامش هوش‌مصنوعی است، چیزی که بیل گیتس آن را یک تحول شگفت نامیده اما بیش از آن‌که حالا نام او را شگفتی بگذاریم، داریم به تعبیر پیشگویی‌های سینمایی سال‌های گذشته فکر می‌کنیم. این‌که آیا این گزاره واقعیت دارد که در زمانه‌ای زیست می‌کنیم که امکان آشوب هوش‌مصنوعی بر جهان واقعی ما وجود داشته باشد.
تازه‌ترین خروجی جهان تکنولوژی نامش هوش‌مصنوعی است، چیزی که بیل گیتس آن را یک تحول شگفت نامیده اما بیش از آن‌که حالا نام او را شگفتی بگذاریم، داریم به تعبیر پیشگویی‌های سینمایی سال‌های گذشته فکر می‌کنیم. این‌که آیا این گزاره واقعیت دارد که در زمانه‌ای زیست می‌کنیم که امکان آشوب هوش‌مصنوعی بر جهان واقعی ما وجود داشته باشد.
کد خبر: ۱۴۰۲۸۹۱

در همین فاصله کوتاه از رونمایی از هوش‌مصنوعی نشانه این تحقق به چشم آمده است، تازه‌ترینش خودکشی یک شهروند آمریکایی پس از مشورت با همین هوش‌مصنوعی است! واقعه‌ای هولناک که تا پیش از این ردش را می‌توانستیم فقط در فیلم‌ها و سریال‌های آخرالزمانی هالیوودی ببینیم و بس. برخی پژوهشگران حوزه هوش‌مصنوعی هم باور دارند که این فناوری به‌تدریج علیه انسان سلاح به دست خواهد گرفت و او را خواهد کشت اما باید دید که هوش‌مصنوعی چرا و چگونه این کار را انجام خواهد داد. فروپاشی شغل، هرزنامه‌ها و اطلاعات نادرست، منسوخ شدن انسانیت و فروپاشی جامعه را فراموش کنید. برخی باور دارند که هوش‌مصنوعی در اولین فرصت، تمام حیات بیولوژیکی را از بین خواهد برد.
این نخستین بار نیست که بشر به‌دلیل خلاقیت‌های فناورانه خود، احتمال انقراض را نادیده می‌گیرد اما تهدید هوش‌مصنوعی با سلاح‌های هسته‌ای که ما یاد گرفته‌ایم با آنها زندگی کنیم، بسیار متفاوت است. سلاح‌های هسته‌ای نمی‌توانند فکر کنند، دروغ بگویند، انسان را فریب دهند یا چیزی را دستکاری کنند. همچنین، سلاح‌های هسته‌ای نمی‌توانند برنامه‌ریزی و اجرا کنند. یکی باید دکمه قرمز بزرگ را فشار دهد. ظهور تکان‌دهنده هوش‌مصنوعی همه‌منظوره، حتی در سطح آهسته و همراه با ایراد«GPT-۴» خطر واقعی نابودی را به گفت‌وگو بازگردانده است.
حتی اگر موافق باشیم که ابرهوش‌مصنوعی فرصتی را برای از بین بردن تمام حیات روی زمین دارد، باز هم به نظر نمی‌رسد که بتوانیم کاری در مورد آن انجام دهیم. این ناتوانی فقط به این دلیل نیست که ما نمی‌دانیم چگونه جلوی چیزهای هوشمندتر از خود را بگیریم، بلکه به این دلیل است که ما حتی نمی‌توانیم به‌عنوان یک گونه، خود را از رقابت برای ایجاد آن باز داریم. چه کسی قرار است قوانین را وضع کند؟ این یک معضل جهانی است. نامه‌های سرگشاده ناامیدانه رهبران صنعتی مبنی بر درخواست یک مکث شش ماهه برای فهمیدن این‌که در کجا هستیم، ممکن است بهترین کاری باشد که می‌توانیم انجام دهیم.
نخست باید توجه داشت که این یک مسابقه تسلیحاتی است و هر کشوری که اول به نتیجه برسد، ممکن است بر جهان حکومت کند. در هر حال، موضوع اقتصاد نیز وجود دارد. هرچه هوش‌مصنوعی هوشمندتر و توانمندتری ایجاد کنید، دستگاه چاپ پول بزرگ‌تری دارید. الیزر یودکوفسکی، پژوهشگر و فیلسوف هوش‌مصنوعی می‌گوید: «آنها طلا بیرون می‌ریزند تا زمانی که به اندازه کافی بزرگ شوند، جو را متشنج کنند و همه را بکشند.» یودکوفسکی مدت‌هاست که یکی از صداهای پیشرو در کمپین «هوش‌مصنوعی همه ما را خواهد کشت» بوده است و افرادی که رقابت را به سمت ابرهوش هدایت می‌کنند، دیگر فکر نمی‌کنند که او یک انسان پست‌فطرت است. در این میان افرادی هم هستند که باور دارند از پیامدهای چنین موضوعی، گریزی نداریم. سم آلتمن، مدیرعامل «OpenAI» یکی از آنهاست که معتقد است: «این احتمال وجود دارد و واقعا مهم است که آن را بپذیریم، زیرا اگر در مورد این مشکل صحبت نکنیم و آن را بالقوه واقعی در نظر نگیریم، تلاش کافی را برای حل کردن آن نخواهیم داشت.»
مگر ماشین‌ها برای خدمت کردن و احترام گذاشتن به ما طراحی نشده‌اند و آموزش ندیده‌اند؟ مطمئنا همین‌طور است اما هیچ‌کس به‌سادگی یک رمز را برای GPT-۴ نمی‌نویسد. این کار به‌سادگی امکان‌پذیر نخواهد بود. در عوض، OpenAI یک ساختار یادگیری عصبی را با الهام از نحوه اتصال مغز انسان به مفاهیم ایجاد کرد. این شرکت با سرویس «مایکروسافت آژور» کار کرد تا سخت‌افزاری را برای اجرای آن بسازد. سپس، آن را با حجم قابل‌توجهی از متن انسانی تغذیه کرد و به GPT امکان داد تا خودش را به‌طور مؤثر برنامه‌ریزی کند.
هیچ‌کس واقعا نمی‌داند که آیا چیزی شبیه به یک ذهن در این فناوری وجود دارد، دقیقا می‌توان گفت که چقدر هوشمند است، چگونه می‌توان فهمید که واقعا هوشیار شده است و آیا اصلا این چیزها مهم هستند یا خیر. این فناوری به‌طور درخشانی یک هوش حساس را تجسم می‌کند و با جهان تعامل دارد؛ مگر این‌که به‌طور ویژه به آن بگویید این کار را نکند. شاید همین کافی باشد.

newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها