منظور از هوش مصنوعی چیست؟ در واقع این اصطلاح حد و مرز مشخصی ندارد. وقتی هوش مصنوعی در سال 1335/1956 در کارگاهی در کالج دارتموث معرفی شد، به مفهوم کلی واداشتن ماشین به رفتارهایی به کار رفت که در صورت مشاهده در انسان، نشانه هوشمندی تلقی می‌شود.
کد خبر: ۱۰۶۲۱۲۳
عصر ماشین‌های اندیشمنـد!

پیشرفت تازه و مهمی که در این حوزه به دست آمده، «یادگیری ماشین» است که در فناوری‌هایی از بررسی اشتباهات املایی و تایپی گرفته تا خودروهای بدون راننده کاربرد دارد و معمولا نوعی سامانه‌ رایانه‌ای به نام «شبکه‌ عصبی» انجام آن را برعهده دارد.

شبکه عصبی مدلی بسیار ساده‌سازی شده از مغز انسان است که در آن مجموعه‌ای از واحدها، اجزای نوعی ورودی (مثلا پیکسل‌های عکس) را دریافت می‌کنند، محاسبات ساده‌ای رویشان صورت داده، آنها را به لایه دیگری از واحدها تحویل می‌دهند. لایه آخر، حامل جواب خواهد بود.

مساله محوری در حوزه یادگیری ماشین به این معنی است که چطور رایانه‌هایی بسازیم که به جای دریافت دستورالعمل صریح، عملکردشان را از طریق کسب تجربه بهتر کنند.

یادگیری ماشین در فصل مشترک علوم رایانه و آمار و در قلبِ حوزه‌های هوش مصنوعی و علوم داده‌ها قرار دارد و امروزه سرعت رشد میان حوزه‌های فنی دیگر بالاست.

در سامانه‌های مبتنی بر یادگیری ماشین، نیازی به برنامه‌نویسی متخصصان با استفاده از دانش خودشان نیست، بلکه خود این سامانه‌ها آنچه را که باید، از روی مجموعه داده‌های کلان می‌آموزند! تا جایی که در نهایت می‌توانند در مجموعه داده‌هایی بس عظیم‌تر و آشفته‌تر از آنچه انسان‌ها از عهده تحلیلشان بر می‌آیند، الگوهای موجود را مشاهده و نا‌هنجاری‌ها را تشخیص دهند.

پیشرفت‌های اخیر در حوزه یادگیری ماشین، هم به سبب توسعه نظریه و الگوریتم‌های جدید یادگیری و هم در نتیجه در دسترس بودن کلان‌داده‌ها و محاسبات رایانه‌ای کم‌هزینه حاصل شده است. این پیشرفت‌ها به اندازه‌ای است که اکنون در حوزه‌های مختلف علم، فناوری و تجارت می‌توان ردپای هوش مصنوعی و روش‌های یادگیری ماشین را مشاهده کرد.

محکی قدیمی‌ برای هوش مصنوعی: جست‌وجوی ذرات جدید

اواخر دهه 1360/1980 بود که پژوهشگران حوزه فیزیک ذرات به‌صورت نه‌چندان جدی سراغ هوش مصنوعی رفتند.

این حوزه از فیزیک با هوش مصنوعی و الگوریتم‌های یادگیری ماشین سازگاری خوبی دارد، زیرا در اغلب آزمایش‌های فیزیک ذرات، پژوهشگران باید الگوهای مکانی نامحسوس ذرات را در میان بی‌شمار مورد مشابه در آشکارسازها جست‌وجو کنند؛ دقیقا همان چیزی که هوش مصنوعی به بهترین نحو انجام می‌دهد.

سال‌ها طول کشید تا اعضای جامعه علمی متقاعد شوند این روش، شیوه مرموز و بی‌پایه‌ای نیست و اکنون روش‌های هوش مصنوعی از ابزارهای استاندارد فیزیکدانان به شمار می‌رود.

در سال 1391/2012، گروه‌هایی از پژوهشگران که با بزرگ‌ترین برخورددهنده پروتون در جهان یعنی ال‌اچ‌سی LHC (سرواژه Large Hadron Collider به معنی برخورددهنده هادرونی بزرگ) در سوئیس کار می‌کردند، ذره‌ای را به نام بوزون هیگز پیدا کردند که وجود آن مدت‌ها قبل پیش‌بینی شده بود.

این ذره گریزپا، برای توجیه نحوه جرم‌دار شدن همه ذرات بنیادی به کار می‌رود، اما تشخیص آن اصلا آسان نیست؛ در ال‌اچ‌سی، بوزون هیگز تقریبا فقط در یک برخورد از میان یک میلیارد برخورد پروتونی ایجاد می‌شود و طی مدت یک میلیاردم پیکوثانیه دچار واپاشی شده، ذرات دیگر را شکل می‌دهد؛ از جمله زوجی از پروتون‌ها و مجموعه‌ای چهارتایی از ذراتی به نام میون.

برای بازسازی ذره هیگز، فیزیکدانان باید همه این ذرات عادی‌تر را پیدا کنند و ببینند آیا با توجه به وضعیتشان ممکن است منشا همه آنها یک ذره بوده‌ باشد یا خیر. البته کار آنان به سبب وجود تعداد زیادی ذره فرعی که در برخوردها ایجاد می‌شوند، دشوارتر هم می‌شود.

الگوریتم‌هایی مانند شبکه‌های عصبی برای پیدا کردن آثار ذرات مورد نظر در میان ذرات زمینه بسیار کارآمد هستند. در آشکارسازهای ذرات ـ که معمولا دستگاه‌هایی بشکه مانند با انواع مختلف حسگرها هستند ـ هر فوتون در قسمتی از دستگاه به نام «گرما‌سنج الکترومغناطیسی» تعداد زیادی ذره یا به عبارتی بهمنی از ذرات ایجاد می‌کند. الکترون‌ها و ذرات دیگری به نام هادرون‌ها نیز چنین ذراتی تولید می‌کنند، اما بهمن‌های آنها اندکی با بهمن ناشی از فوتون‌ها متفاوت است.

الگوریتم‌های یادگیری ماشین می‌توانند با یافتن همبستگی‌هایی میان متغیرهای مختلف توصیف‌کننده این بهمن‌ها، آنها را از هم تمیز دهند.

همچنین این الگوریتم‌ها می‌توانند برای مثال به تشخیص زوج فوتونی که از واپاشی هیگز به وجود می‌آید از دیگر زوج‌های فوتونی، کمک کنند.

روش‌های یادگیری ماشین هنوز حوزه فیزیک ذرات را به طور کامل قبضه نکرده‌اند؛ همچنان فیزیکدانان برای جستجوی آثار ذرات و پدیده‌ها در میان داده‌ها، بیشتر بر درکشان از فیزیک بنیادی تکیه دارند. اما این احتمال وجود دارد که بزودی هوش مصنوعی در این زمینه اهمیت بیشتری پیدا کند؛ پژوهشگران قصد دارند در سال 1403/2024 ال‌اچ‌سی را به‌گونه‌ای ارتقا دهند که تعداد برخوردها در آن ده برابر شود. در آن مقطع، یادگیری ماشین برای بررسی سیل داده‌های جدیدی که به دست می‌آید ضروری خواهد بود.

چگونه می‌توان با الگوریتم‌های هوش مصنوعی وضع روحی و جسمی افراد را تحلیل کرد؟

شبکه‌های اجتماعی با میلیاردها کاربر و صدها میلیارد توئیت و پُست که هر ساله در آنها منتشر می‌شود، کلان‌داده‌ها را به حوزه علوم اجتماعی برده‌اند. بعلاوه فرصت بی‌نظیری برای استفاده از هوش مصنوعی برای درک ارتباطات انسانی، پدید آمده است.

برخی پژوهشگران از روش‌های یادگیری ماشین و پردازش زبان طبیعی برای غربال‌کردن داده‌های حجیم استفاده می‌کنند تا به تعیین وضع سلامت جسمی و روحی عموم بپردازند. این کار به روش سنتی با آمارگیری انجام می‌شود. اما داده‌های شبکه‌های اجتماعی به واقعیت نزدیک‌تر و بسیار ارزان‌تر هستند و حجم آنها ده‌ها برابر بیشتر است البته این داده‌ها اندکی درهم و آشفته هستند، اما هوش مصنوعی روشی قدرتمند را برای تشخیص الگو در میان آنها ارائه می‌دهد.

برای مثال در پژوهشی که بتازگی‌ انجام شد، پژوهشگران دانشگاه پنسیلوانیا به پست‌های 29هزار کاربر پرداختند که میزان افسردگی خود را با آزمون‌هایی ارزیابی کرده بودند. الگوریتم یادگیری ماشین با استفاده از داده‌های 28هزار نفر از این کاربران، ارتباطی را بین واژه‌های به کار رفته در پست‌های تازه و سطح افسردگی آنان پیدا کرد. پس از این کشف، الگوریتم توانست میزان افسردگی را در کاربران دیگر صرفا براساس پست‌های جدیدشان تعیین کند.

این گروه از محققان در پژوهشی دیگر، میزان مرگ و میر ناشی از بیماری‌های قلبی را با تجزیه و تحلیل 148میلیون توئیت پیش‌بینی کردند.

مشخص شد واژه‌هایی که با خشم و روابط منفی ارتباط دارند، از نشانه‌های خطر بیماری قلبی هستند. آمار واقعی مرگ‌ومیر بیشتر با پیش‌بینی‌های انجام شده بر اساس شبکه‌های اجتماعی مطابقت داشت تا پیش‌بینی‌های صورت گرفته بر مبنای ده عامل اول خطرساز بیماری قلبی از قبیل سیگار و دیابت.

پژوهشگران همچنین با استفاده از شبکه‌های اجتماعی به پیشبینی شخصیت، مقدار درآمد و گرایش سیاسی افراد و همچنین بررسی کلیشه‌ها و قالب‌های اجتماعی پرداختند!

جیمز پِنِبیکر از دانشگاه تگزاس که در پژوهش‌های خود به جای محتوا بر نحوه بیان متمرکز است، دریافته که می‌توان از واژه‌های دستوری به‌کار رفته در درخواست پذیرش اشخاص در دانشگاه، برای پیش‌بینی نمرات احتمالی آنان استفاده کرد. استفاده از حرف تعریف و حرف اضافه نشان‌دهنده تفکر تحلیلی (تفکر مبتنی بر حقایق ثابت شده و نظریه‌ها) است و می‌توان از روی آن نمرات بالا را پیش‌بینی کرد. استفاده از ضمیر و قید نشان‌دهنده تفکر روایی (تفکر مبتنی بر تجربه‌های شخصی و روایت‌های دیگران) است که از نمرات پایین‌تری خبر می‌دهد.

او همچنین دلایلی برای تایید ادعای افرادی یافته است که نمایشنامه‌ای مربوط به سال 1728میلادی به نام دروغ دوگانه (Double Falsehood) را نوشته ویلیام شکسپیر می‌دانند: الگوریتم‌های یادگیری ماشین، تطابق این نمایشنامه را از نظر عواملی مانند پیچیدگی و واژه‌های نادر، با دیگر آثار شکسپیر نشان می‌دهد!

جست‌وجوی ریشه‌های اوتیسم در ژنوم

شناخت منشا اوتیسم برای پژوهشگران حوزه‌ ژنتیک، چالشی بزرگ به شمار‌ می‌رود. مشخص شده است این بیماری یک مؤلفه وراثتی دارد، اما تغییراتی که در انبوه ژن‌های موجود، نقشی شناخته شده در اوتیسم دارند، فقط 20 درصد کل موارد را توجیه می‌کنند.

یافتن متغیرهای ژنتیک دیگری که ممکن است در این بیماری نقش داشته باشند، نیاز به بررسی 25هزار ژن انسانی دیگر و دی‌ان‌ای اطرافشان دارد که برای انسان کار بسیار دشواری به شمار می‌رود. به همین علت پژوهشگری از دانشگاه پرینستون و همکارانش روش‌های هوش مصنوعی را برای این منظور به کار گرفته‌اند.

آنان صدها مجموعه داده‌ را با هم ترکیب کرده‌اند؛ داده‌هایی درباره این که چه ژن‌هایی در سلول‌های انسانی مشخصی فعال هستند، برهم‌کنش پروتئین‌ها چگونه است و جایگاه‌های اتصال فاکتور رونویسی ژنتیک و سایر خصوصیات مهم مربوط به ژنوم کجا هستند سپس آنان با استفاده از یادگیری ماشین، نقشه برهم‌کنش ژن‌ها را ایجاد کردند و برهمکنش‌های ژن‌هایی که قطعا خطر اوتیسم را ایجاد می‌کنند را با برهم‌کنش‌های هزاران ژن ناشناخته دیگر مقایسه کردند تا مشابهت‌هایی بینشان بیابند و به این ترتیب 2500 ژن دیگر را که احتمالا در اوتیسم نقش دارند شناسایی کردند.

اما همان‌گونه که پژوهشگران بتازگی دریافته‌اند، ژن‌ها به تنهایی عمل نمی‌کنند؛ رفتار آنها تحت تاثیرمیلیون‌ها باز آلی غیررمزگذار در نزدیکی‌شان قرار می‌گیرد که با پروتئین‌های متصل شونده به دی‌ان‌ای و عوامل دیگر برهم‌کنش دارند.

مشخص‌کردن این که کدام تغییرات ناحیه بی‌رمز ممکن است بر ژن‌های اوتیسم دور و بر آنها اثر بگذارد حتی از پیدا کردن این ‌ژن‌ها نیز دشوارتر است و برای تعیین آنها از هوش مصنوعی کمک گرفته شده است.

پژوهشگران برای آموزش دادن برنامه ـ که یک سامانه یادگیری عمیق است و «دیپ سی (DeepSEA) » نامیده می‌شود ـ آن را در معرض داده‌هایی قرار دادند که از نحوه اثر ده‌ها هزار ناحیه بی‌رمز دی‌ان‌ای بر ژن‌های اطرافشان موجود بود.

سامانه یاد گرفت که برای یافتن فعالیت‌های احتمالی در نواحی بی‌رمز دی‌ان‌ای، به دنبال چه ویژگی‌هایی بگردد. این محققان اکنون مشغول اجرای برنامه با داده‌های مربوط به ژنوم‌ بیماران مبتلا به اوتیسم هستند تا اثرات بازهای آلی غیر رمزگذار را رتبه‌بندی کنند.

ماشین‌هایی که از اسرار آسمان سر در می‌آورند

فروردین امسال اخترشناسی به نام کوین شاوینسکی تصاویر محوی از چهار کهکشان در توئیتر منتشر و از اخترشناسان دیگر تقاضا کرد در طبقه‌بندی آنها به او کمک کنند. اخترشناسان در جواب او گفتند این تصاویر شبیه کهکشان‌های بیضوی و مارپیچی، یعنی انواع آشنای کهکشان‌ها هستند.

بعضی از اخترشناسان که به سبب گرایش‌ محاسباتی شاوینسکی مشکوک شده بودند حقه‌ای در کار باشد، بصراحت از او پرسیدند آیا این کهکشان‌ها واقعی هستند؟ یا شبیه‌سازی‌هایی بر پایه مدل‌سازی فیزیکی با رایانه‌اند؟ در واقع این کهکشان‌ها هیچ‌یک از این دو نبودند.

شاوینسکی و همکارانش در موسسه ای‌تی‌اچ (ETH) زوریخ این کهکشان‌ها را در شبکه‌ای عصبی که هیچ دانش فیزیکی ندارد، عمل آورده بودند؛ شبکه‌ای که صرفا می‌داند کهکشان‌ها باید چه ظاهری داشته باشند! شاوینسکی می‌خواست با این پست توئیترش دریابد تا چه حد ساخته‌های شبکه واقعی به نظر می‌رسند اما هدف بزرگ‌تر او ایجاد فناوری‌تازه‌ای بود: طراحی شبکه‌ای که بتواند تصویر تاری از یک کهکشان را طوری اصلاح کند که گویی با تلسکوپ بهتری گرفته شده است.

چنین چیزی به اخترشناسان این امکان را می‌دهد که جزئیات بیشتر و اطلاعات دقیق‌تری را از رصدهای نجومی خود به دست آورند.

تصاویر جعلی‌ای که شاوینسکی در توئیتر منتشر کرد، حاصل کار یک شبکه‌ رقابتی مولد بود؛ نوعی مدل یادگیری ماشین که دو شبکه عصبی را رودرروی هم قرار می‌دهد تا با هم رقابت کنند.

یکی از آنها شبکه مولد است که از خود تصاویر جعلی را می‌سازد، دیگری شبکه ممیز (ارزیاب) است که می‌کوشد هر نقصی را که ممکن است نشانه دستکاری باشد بر ملا کند و از این طریق مولد را وا می‌دارد که عملکرد بهتری داشته باشد.

گروه شاوینسکی کیفیت هزاران تصویر واقعی از کهکشان‌ها را به صورت ساختگی کاهش و به مولد آموزش داد که با ویرایش عکس‌ها آنها را دوباره باکیفیت کند تا جایی که ممیز نتواند بر آنها اشکالی وارد کند. در نهایت این شبکه توانست از بقیه روش‌های افزایش وضوح تصاویر نویزدار بهتر عمل کند.

در پژوهشی دیگر نیز نوعی راهکار یادگیری ماشین برای یافتن عدسی‌های گرانشی در اعماق فضا ارائه شده است.

عدسی‌های گرانشی کمان‌هایی از نور در آسمان‌اند که در موارد نادری تشکیل می‌شوند که نور کهکشانی دوردست در مسیرش به سوی زمین از فضا ـ زمانی که خمیده شده است، عبور کند.

این کهکشان‌ها را می‌توان برای اندازه‌گیری فواصل در کیهان و یافتن نواحی غیرقابل مشاهده تجمع جرم به کار برد. عدسی‌های گرانشی قوی با چشم قابل تمیز دادن هستند، اما بسختی می‌توان آنها را با قوانین ریاضی ساده توصیف کرد.

به عبارتی تشخیص‌شان برای رایانه‌های سنتی دشوار و برای انسان آسان است. پژوهشگران دریافتند شبکه‌ای عصبی که با هزاران مورد عدسی تعلیم دیده باشد، می‌تواند بصیرت و شهود مشابهی پیدا کند. تاکنون بیش از 10 مقاله درباره جست‌وجوی عدسی‌های گرانشی قوی با روش‌های مختلف یادگیری ماشین منتشر شده است.

شبکه‌های عصبی، هنر سنتز شیمیایی را می‌آموزند

مانند آشپزی که با تصوری از غذای آماده شده در ذهن خود کارش را آغاز می‌کند و سپس به این فکر می‌کند که چگونه آن را آماده کند، بسیاری از پژوهشگران حوزه شیمی آلی نخست ساختار نهایی مولکولی را که می‌خواهند بسازند در نظر می‌گیرند و سپس می‌اندیشند که چگونه آن را سر هم کنند.

اکنون آنان امیدوارند با کمک هوش مصنوعی بر یکی از دشواری‌های مهم ساختن مولکول‌ها غلبه کنند: انتخاب اجزای سازنده درست از میان صدها گزینه بالقوه و انتخاب قواعد مناسب شیمیایی برای پیوند دادن آنها از بین هزاران قاعده موجود.

چند دهه شیمیدانان با زحمت و تلاش زیاد واکنش‌های شیمیایی شناخته شده را به صورت برنامه‌های رایانه‌ای می‌نوشتند، به این امید که سامانه‌ای ایجاد کنند که بتواند بسرعت ساده‌ترین دستورهای ساخت مولکول‌ها را محاسبه کند اما نوشتن همه قواعد به زبان باینری کار بسیار دشواری است؛ از این رو بعضی از شیمیدانان به هوش مصنوعی روی آوردند و به جای وارد کردن قواعد معین واکنش‌های شیمیایی، برنامه شبکه عصبی عمیقی را طراحی کردند که از روی میلیون‌ها نمونه، یاد می‌گیرد واکنش‌ها چگونه پیش می‌روند.

هر چه داده‌های بیشتری به این شبکه خورانده شود، عملکرد آن بهتر می‌شود. به مرور این شبکه یاد گرفت بهترین واکنش را برای گام دلخواهی از سنتز شیمیایی پیش‌بینی کند و در نهایت توانست دستوراتی را برای ساختن مولکول‌ها از گام اول وضع کند.

این برنامه روی 40هدف مولکولی مختلف آزمایش و با یک برنامه طراحی مولکول که به روش سنتی نوشته شده بود، مقایسه شد. در حالی‌که برنامه نوشته شده به شیوه سنتی در 22.5 درصد موارد توانست در مدت دو ساعت به راهی برای ساخت مولکول‌های هدف دست یابد، هوش مصنوعی در 95 درصد موارد به آن رسید.

این روش می‌تواند برای بهبود فرآیند تولید دارو نیز به کار برده شود. البته هنوز برای قضاوت درباره موفقیت‌آمیز بودن این روش در عمل زود است، اما ممکن است تحول بزرگی نه فقط در ساختن مولکول‌های شناخته شده بلکه در یافتن روش‌هایی برای ساختن مولکول‌های جدید ایجاد کند.

البته هوش مصنوعی در آینده نزدیک جای متخصصان شیمی آلی را نمی‌گیرد، چون شیمیدان‌ها قادرند کارهایی فراتر از پیش‌بینی روند فرآیندها انجام دهند. هوش مصنوعی به سامانه موقعیت‌ یابی جی‌پی‌اس برای شیمی می‌ماند، ممکن است برای یافتن مسیر مفید باشد، اما نمی‌تواند سنتز کاملی را به تنهایی طراحی و اجرا کند؛ هرچند پژوهشگران حوزه هوش مصنوعی به دنبال رسیدن به این توانایی هم هستند.

کیارا عباس‌زاده اقدم- جام‌جم

منبع: وبگاه نشریات ساینس

newsQrCode
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها