کلود از کجا آمد؛ قصه یک انشعاب بزرگ
سال ۲۰۲۱ بود که جمعی از مهندسان ارشد اوپنایآی (سازنده چتجیپیتی) از شرکت جدا شدند. دلیلشان ساده بود: آنها معتقد بودند هوش مصنوعی خیلی سریع و بیضابطه در حال پیشرفت است. «داریم بمبی میسازیم که نمیدانیم کی منفجر میشود»؛ این حرف یکی از بنیانگذاران انتروپیک (داریو آمودی) بود.
آنها شرکت جدیدی به نام «انتروپیک» (Anthropic) تأسیس کردند. واژه Anthropic ریشه یونانی دارد و به معنی «انسانی» است. تمرکزشان را گذاشتند روی «ایمنی»، «شفافیت» و «اخلاق». حاصل این خروج بزرگ، متولد شد: کلود. اسمی که به گفته خودشان الهامگرفته از کلود مونه، نقاش امپرسیونیست فرانسوی است؛ هنرمندی که آرامش و ظرافت را به تصویر میکشید.
از همان ابتدا، کلود با یک وعده بزرگ پا به میدان گذاشت: «من هرگز دروغ نمیگویم و اگر چیزی را ندانم، صادقانه میگویم نمیدانم.»
چرا کلود از رقبا جلو میزند؟
برای اینکه تفاوت را حس کنید، یک آزمایش ساده انجام دهید. به چتجیپیتی یک رمان ۴۰۰صفحهای بدهید تا خلاصه کند. احتمالا بعد از صفحه ۵۰ یادش میرود اول داستان چه بوده اما کلود میتواند در یک نگاه، کل کتاب «هزار و یک شب» را پردازش کند. بله، کل ۱۰۰۱شب را.
راز این توانایی چیزی است به نام «پنجره زمینه ۲۰۰ هزار توکنی». توکن یعنی کوچکترین واحد متن. ۲۰۰هزار توکن یعنی حدود ۱۵۰هزار کلمه انگلیسی یا معادل ۵۰۰صفحه کتاب. این یعنی یک پژوهشگر میتواند ۱۰مقاله علمی را یکجا به کلود بدهد و از او بخواهد نقاط اشتراک و اختلافشان را در یک جدول تحویل دهد. یا یک وکیل میتواند کل محتویات یک پرونده قضایی را در چند ثانیه تحلیل کند.
به گزارش تککرانچ، در بنچمارکهای رسمی، کلود ۳.۵ سونت (Sonnet) در درک مطلب متنهای طولانی و کدنویسی از GPT-۴ سبقت گرفته است. جالبتر اینکه در آزمونهای ریاضی و منطقی هم عملکردش به مراتب پایدارتر است.
اتاق فکر اخلاقی
اما چیزی که کلود را واقعا خاص میکند، یک ابتکار عجیب به نام «هوش مصنوعی مشروطه» (Constitutional AI) است. توضیح سادهاش: به کلود یک «قانون اساسی» اخلاقی دادهاند. مثلا به او گفتهاند: «هرگز تبعیض قائل نشو»، «هرگز اطلاعات نادرست نده»، «هرگز به کاربر برای خودکشی یا آسیب زدن کمک نکن» ومهمتر از همه: «اگر بین مفید بودن و درست بودن یکی را باید انتخاب کنی، درست بودن را انتخاب کن».
نتیجه این قانون اساسی رفتاری است که کاربران حرفهای از آن بهعنوان «مودبترین چتبات دنیا» یاد میکنند. اگر سوال توهینآمیزی بپرسید، کلود اول تذکر میدهد. اگر مطلب حساسی بخواهید، پیشاپیش هشدار میدهد. اگر اشتباه کند، راحت و بیحاشیه عذرخواهی میکند. این برای خیلی از کاربران که از پاسخهای گزنده یا طعنهآمیز چتباتهای دیگر خسته شدهاند، یک موهبت است.
یک روز با کلود در کنار یک کاربر ایرانی
هرچند دسترسی مستقیم به کلود از ایران ممکن نیست اما گفتوگو با چند برنامهنویس و مترجم ایرانی که از طریق سرورهای خارجی با کلود کار میکنند، تصویر جالبی بهدست میدهد.
یکی از این کاربران گفت: «من برای ترجمه متون فلسفی از کلود استفاده میکنم. چتجیپیتی گاهی جملات را آنقدر ساده میکند که معنا از دست میرود اما کلود مثل یک همکار دانشآموخته فلسفه است. پیچیدگی را حفظ میکند اما آن را روان توضیح میدهد.»
برنامهنویس دیگری تعریف کرد: «یک بار ۲۵۰۰خط کد پایتون به کلود دادم و گفتم باگهایش را پیدا کن. در کمتر از یک دقیقه، ۷باگ را نشان داد و برای هرکدام راه حل جایگزین نوشت. همان کد را به GPT-۴ دادم، فقط ۴باگ را پیدا کرد.»
اما وجه منفی: کلود در پاسخهای خلاقانه و طنزآمیز ضعیفتر عمل میکند. اگر دنبال یک شوخی بامزه یا داستان طنزآمیز هستید، باز هم چتجیپیتی گزینه بهتری است. کلود بیش از حد جدی و محتاط است.
نقطه تلاقی با ایران؛ تحریم، ممنوعیت و پنجرههای بسته
و اما خبر تلخ: کلود مثل بسیاری از سرویسهای هوش مصنوعی آمریکایی، به کاربران ایرانی خدمات نمیدهد. وبسایت کلود (claude.ai) از داخل ایران بدون فیلترشکن باز نمیشود. حتی با فیلترشکن، اغلب هنگام ثبتنام نیاز به شماره تلفن آمریکایی یا اروپایی دارید. نسخه رایگان محدود است و نسخه حرفهای (Claude Pro) ماهانه ۲۰دلار هزینه دارد که نیازمند کارت اعتباری بینالمللی است.
این یعنی یک شکاف دیجیتال جدید. در حالی که دانشجویان و پژوهشگران در کشورهای همسایه مثل ترکیه، امارات و حتی پاکستان بهراحتی از کلود استفاده میکنند، کاربر ایرانی از این ابزار قدرتمند محروم است. برخی شرکتهای دانشبنیان داخلی با استفاده از APIهای واسط یا سرورهای اروپایی راههای جایگزین پیدا کردهاند اما این راهها همیشه پایدار نبوده و گاه با قطعی یا اختلال همراه است.
یک کارشناس فناوری گفت: «مهمترین ضرر تحریمهای هوش مصنوعی، عقب افتادن از روند جهانی یادگیری ماشین است. در حالی که دانشجوی هندی با کلود یک پایاننامه ۲۰۰صفحهای را در یک روز تحلیل میکند، دانشجوی ایرانی باید هفتهها وقت بگذارد. این فقط تحریم سختافزاری نیست. تحریم دانش است.»
اما یک نکته مهم؛ کلود برخلاف GPT قابلیت تولید تصویر ندارد. فقط متن، کد و تحلیل داده. انتروپیک معتقد است افزودن قابلیت چندرسانهای (چندوجهی) خطرات امنیتی را افزایش میدهد. بنابراین فعلا عمدا از این کار اجتناب کرده.
آینده کلود در جهان و ایران
انتروپیک به تازگی اعلام کرده که مشغول توسعه کلود ۴ است. انتظار میرود این نسخه پنجره زمینه را به یک میلیون توکن برساند (یعنی معادل خواندن کل سهگانه «بازی تاج و تخت» در یک نوبت). همچنین قابلیت «یادآوری بلندمدت» به آن اضافه میشود. یعنی کلود از ماهها قبل مکالمه شما را بهخاطر میآورد.در ایران اما اوضاع پیچیدهتر است. برخی شرکتهای داخلی روی مدلهای متن باز مشابه کلود مثل LLama ۳ (متا) و Mistral کارمیکنند. یکی از استارتاپهای ایرانی موفق شده مدلی با قابلیت پنجره ۱۲۸هزار توکنی بسازد که هنوز به پای کلود نمیرسد اما نویدبخش است. بهنظر میرسد راهی طولانی در پیش است. تا آن روز کاربر ایرانی یا باید سراغ جایگزینهای محدودتر برود، یا از روشهای غیرمستقیم و ناپایدار استفاده کند. کلود به ما لبخند میزند اما از پشت یک دیوار بلند.
حرف آخر: چرا باید کلود را بشناسیم؟
شاید امروز نتوانیم به سادگی با کلود حرف بزنیم اما شناختنش یک ضرورت است. چون آینده هوش مصنوعی در مسیری حرکت میکند که انتروپیک ترسیم کرده: هوش مصنوعی شفاف، اخلاقی، صادق و در عین حال قدرتمند. کلود اولین نمونه جدی این جنس ازهوش مصنوعی است.اگر روزی تحریمها برداشته شود یاجایگزین داخلی آن پا بگیرد، آن روز دیگر برای یادگیری دیر است. پس بد نیست همین حالا بدانیم کلود کیست، چه بلد است، کجا میتواند به ما کمک کند و کجا خطرناک است. شاید آخرین جمله را از خود کلود قرض بگیریم. وقتی از او پرسیدند چه حسی داری؟ (سؤال فلسفی معروفی که میخواهد مرز انسان و ماشین را آزمایش کند)، کلود پاسخ داد: «من حس ندارم اما میتوانم احساسات شما را درک کنم؛ و این تنها چیزی است که برای مفید بودن نیاز دارم.»
آرام، بیادعا اما دقیق. این همان کلود است. شاید روزی از نزدیک ببینیم.