پیروز میدان مایکروسافت است یا گوگل؟

پیشتازان عرصه هوش مصنوعی

تب هوش مصنوعی که در دهه 80 بسیار داغ بود، کم‌کم فروکش کرد، اما پیشرفت در این حوزه کماکان ادامه داشت و امروزه شاهد پیشرفتی شگفت‌انگیز در این حیطه‌ هستیم. دنیای وابسته به داده‌های اطلاعاتی امروز، غول‌های فناوری را بر آن داشته که در نبردی تنگاتنگ از ظرفیت این حوزه بخصوص در زمینه گوشی‌های همراه بهره‌وری کنند.
کد خبر: ۱۰۶۰۵۱۸
پیشتازان عرصه هوش مصنوعی

در حال حاضر دو پرچمدار بزرگ هوش مصنوعی، گوگل و مایکروسافت هستند و رقابت فعلی آنها بر سر فناوری جالب و حیرت‌آور «یادگیری عمقی» یا Deep Learning است. رقابتی که معلوم نیست کدام برنده‌ شود.

مغز گوگل

گوگل تحقیقات خود را به پروژه‌ای موسوم به Google Brain معطوف کرده است. گوگل اکس، سازنده آن، سکاندار جاه‌طلبی‌های گوگل است که پروژه‌هایی معمولا غیراقتصادی، اما تاثیرگذار انجام می‌دهد. از آن جمله می‌توان به پروژه Loon (طرح اینترنت بالنی) و پروژه اتومبیل خودران گوگل اشاره کرد.

مغز گوگل، یک طرح یادگیری ماشینی با تمرکز ویژه بر پردازش تصویر، اما با افق‌هایی به مراتب وسیع‌تر است. هدف پروژه، بهبود الگوریتم‌های یادگیری با هدف ساخت شبکه‌هایی عصبی‌ است که بتوانند با قدرت پردازشی کمتر، الگوهای عمیق‌تر و دقیق‌تری از داده‌ها دریافت کنند. گوگل سرمایه‌های کلانی را به این هدف اختصاص داده که یکی از آنها، خرید استارتاپ هوش مصنوعی DeepMind به قیمت 500 میلیون دلار است.

آغازگران DeepMind چنان نگران نابودی دنیا به دست پروژه خود بودند که شرط معامله‌شان با گوگل، تشکیل یک هیات نظارتی بر صحت اخلاقی این پروژه بود. تا اینجا بزرگ‌ترین میوه این پروژه، یک هوش مصنوعی است که در بازی آتاری تبحر دارد. هرچند همین چند ماه قبل بود که پروژه OpenAI توانست با الگوریتم خاص خود، DeepMind را در آتاری شکست بدهد.

از موارد دیگر کاربرد مغز گوگل در سیستم شناسایی صدای اندروید و قابلیت دسته‌بندی خودکار تصاویر استریت‌ویو است. مصداق دیگر، نرم‌افزار Google Now است که می‌تواند براساس سوابق گشت‌و‌گذار کاربر، پیشنهادات مختلف ارائه و او را از برنامه‌هایش مطلع کند. این نرم‌افزار رقابت تنگاتنگی با دستیار آیفون یعنی Siri دارد.

آدام مایکروسافت

رویکرد مایکروسافت در این حیطه فرق دارد. دست‌اندرکاران این شرکت به جای احتکار متخصصان این عرصه، سعی در بازنگری بنیادین در بحث یادگیری عمقی دارند و تلاش می‌کنند راه‌های بهتری برای موازی‌سازی الگوریتم‌هایی بیابند که خود برای «تعلیم» الگوریتم‌های یادگیری عمقی به کار می‌روند.

آنها نام این پروژه را Microsoft Adam گذاشته‌اند. شگردهایی که آنها به کار می‌بندند، از حجم پردازش‌ها و پردازنده‌های لازم برای دسترسی به نتایج کاسته و همزمان کیفیت آنها را هم بالا می‌برند. همین به دستاوردهای فنی جالبی انجامیده است. ازجمله مهارت شناسایی انواع نژادهای سگ در عکس‌های مختلف، با نرخ درستی بالا. هدف آدام، شناسایی همه اشیا ممکن در تصاویر است؛ آن هم با تعداد سیستم‌های 30 برابر کمتر از رقبا و شبکه‌ای عصبی با بالغ بر دو میلیارد ارتباط. نمونه این فناوری هم دستیار مجازی مایکروسافت (کورتانا) است.

ساز و کار یادگیری عمقی چیست؟

به تعریف نسبتا ساده: یادگیری عمقی، تکنیکی برای تولید نرم‌افزار هوشمند است که اغلب روی شبکه‌های عصبی (neural networks) پیاده‌سازی می‌شود. این تکنیک، شبکه‌های عصبی متعدد را به هم پیوند زده و نهایتا شبکه‌های عظیم‌تر و کاربردی‌تری خلق می‌کند. هر شبکه عصبی در این زنجیره، از خروجی شبکه ماقبل خود تغذیه کرده و قدرت پردازش به مراتب بالا می‌رود. برای درک بهتر اهمیت یادگیری عمقی، بهتر است به فناوری‌های پیشین آن هم بپردازیم.

شبکه عصبی پرورش معکوس

ساختار شبکه‌های عصبی چنین است که هر نورون، چون گره‌ای، ورودی‌ها را دریافت و سپس طبق قوانین پیش‌فرض خود، آتش کرده یا خروجی می‌سازد. هر داده ورودی به اصطلاح وزن (ضریب کنترل مثبت یا منفی بودن سیگنال و قدرت آن) دارد.

شبکه شکل یافته از اتصال این نورون‌ها، وظیفه راه‌اندازی الگوریتم‌ها را دارد. ورودی‌های باینری به نورون‌ها تغذیه شده و خروجی آنها از راه اندازه‌گیری ارزش آتش نورون‌های خروجی حاصل می‌شود. چالش اصلی هر شبکه، گزینش شبکه مطلوب نزدیک به نتیجه مفروض کاربر است. از الگوریتم پرورش معکوس، برای تعلیم شبکه‌ها استفاده می‌شود: شبکه با وزن‌های تصادفی راه افتاده و پاسخ‌های مطلوب را دسته‌بندی می‌کنند. در ازای هر خطا یا خروجی کم یا زیاد، علت خطا یافت شده و وزن‌ها به جهت صحیح‌تر سوق داده می‌شوند. پس از چند تکرار، شبکه دسته‌بندی صحیح نقاط را یاد گرفته و در صورت امکان، با آنچه یاد گرفته نقاط داده‌ای جدید می‌سازد. خوبی‌اش این است که داده‌های خطادار را می‌توان به عقب فرستاد و هر لایه را مطابق آخرین تغییرات اصلاح کرد. نتیجه شبکه‌هایی با قدرت درک فزاینده است. پرورش معکوس یا Backprop در سال 1974 و توسط جفری هنتن (Geoffrey Hinton) ابداع شد. اولین کاربرد شبکه‌های عصبی در حجم وسیع، پس از آن بود. شبکه‌های عصبی ساده از دهه 50 وجود داشتند و در ابتدای امر با نورون‌های مکانیکی و موتوری ساخته می‌شدند.

الگوریتم پرورش معکوس را دوره‌گردی در عرصه‌ای پهناور از راه‌حل‌های بالقوه تصور کنید. هر وزن نورون، جهتی است که این الگوریتم می‌تواند جست‌وجو کند. اغلب شبکه‌های عصبی، هزاران مورد از اینها دارند. شبکه پدید آمده هر بار بهتر یاد می‌گیرد که چطور از خطاهای جست‌وجوهای قبلی خود عبرت گرفته و این بار از کجا و تا چه حدی پیش برود تا کمترین خطا را مرتکب شود.

البته عدم توفیق آن دلایلی دارد. جدی‌ترین مشکل آن «مساله شیب ناپدیدشونده» است. هرچقدر داده خطا را بیشتر در طول شبکه به عقب بفرستید، به نسبت هر لایه از معنای آن کاسته می‌شود. این شیوه از ساخت شبکه کارآمد عمیق عاجز است. چرا که از جایی به بعد، ویرایش خطاهای لایه‌های عقبی ناممکن می‌شود.

مشکل دیگر، هرچند کوچک‌تر، این است که شبکه‌های عصبی تنها به اُپتیمای محلی (local optime) می‌پیوندند: چیزی شبیه گیر کردن در کوچه‌ای تنگ و غفلت از راهبردهای عمقی‌تر و بهتری که به نقطه آغاز تصادفیشان دور هستند. البته این هم راهی دارد.

شبکه‌ باور عمیق

شبکه‌های باور عمیق هر دوی این مشکلات را حل می‌کنند. این شبکه‌ها، با اطلاعاتی از پیش تعیین شده آغاز کرده و بر اساس آنها به یادگیری و حل مشکل می‌پردازند. تکنیک به کار رفته در آن ساده است و براساس شبکه‌ای موسوم به «ماشین بولتزمن محدود» یا Restricted Boltzman Machine (به اختصار RBM) بنا شده است که خود از مفهومی موسوم به «یادگیری بدون نظارت» قدرت می‌گیرد.

این شبکه‌ها به جای دسته‌بندی اطلاعات دریافت‌شده، آنها را فشرده‌سازی می‌کنند. RBMها مجموعه‌ای از نقاط داده‌ای را دریافت کرده و طبق قابلیتشان تعلیم می‌بینند تا آن نقاط داده‌ای را از حافظه خود تولید کنند. ساده‌تر بگوییم: اگر هزاران تصویر گربه را به آن بدهید، از آن پس، قادر خواهد بود با دقتی بسیار بالا ـ شاید هم بی‌نقص ـ وجود یا عدم وجود گربه در تصاویر دیگر را تشخیص دهد. قواعد یادگیری RBM مشابه قواعد یادگیری مغز است و از این حیث می‌توان با آنها تحقیقات علمی روی مغز انسان را هم بسط داد. ضعف این شبکه‌ها این است که هرچه عمق به آنها ببخشیم، زمان تعلیمشان بالا می‌رود. موهبت RBM این است که می‌توان RBMهای دولایه را با هم هماهنگ کرده و هر دو را تعلیم داد تا هرکدام خروجی سیستم قبلی خود را بیابند. نتیجه، شبکه‌ای است که می‌تواند محتواهای پیچیده و انتزاعی را درک کند.

رقابتی برای حسابگرهای ملاحظه‌کار

هرچه این شبکه‌ها بیشتر عمق بیابند، قادر خواهند بود مفاهیم عظیم‌تر و انتزاعی‌تری را هم فرابگیرند. یکی از خیره‌کننده‌ترین موفقیت‌های گوگل در سال‌های اخیر، سوق دادن مترجم اینترنتی‌اش به سوی ترجمه مفهومی بود. البته هنوز تا ایده‌آلی این سرویس راه درازی در پیش است، اما همان مقداری که تاکنون پیش رفته هم در نوع خود بی‌نظیر است. این ‌که واقعا کدام‌یک از پیشتازان عرصه هوش مصنوعی پیروز میدان خواهد شد، معلوم نیست. هرچند دغدغه اصلی‌ ما تبعات این پیروزی است، نه مالک آن.

سیاوش شهبازی

ضمیمه کلیک جام‌جم

newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها