محققانی که با هوش مصنوعی پژوهش کنند نقره داغ می‌شوند

یک پایگاه داده مورد استفاده برای نسخه‌های پیش‌نویس پژوهشی، اقدامات بیشتری برای مقابله با استفاده سهل انگارانه از مدل‌های زبانی بزرگ در مقالات علمی انجام می‌دهد.
یک پایگاه داده مورد استفاده برای نسخه‌های پیش‌نویس پژوهشی، اقدامات بیشتری برای مقابله با استفاده سهل انگارانه از مدل‌های زبانی بزرگ در مقالات علمی انجام می‌دهد.
کد خبر: ۱۵۵۲۵۳۳
به گزارش جام جم آنلاین به نقل از تک کرانچ، این پایگاه ArXiv نام دارد. هرچند تحقیقاتی که روی وب سایت پست می‌شود توسط همکاران بررسی شده‌اند، اما مخزن ArXiv به یکی از روش‌های اصلی گردش تحقیقات در حوزه‌هایی مانند علوم رایانشی و ریاضی و خود وب سایت نیز مخزنی از داده‌ها درباره ترند‌های پژوهش‌های علمی تبدیل شده است.
 
این وب سایت هم اکنون گام‌هایی برای مقابله با تعداد روز افزون تحقیقات بی کیفیتی که با هوش مصنوعی انجام شده‌اند، برداشته و به عنوان مثال کاربرانی که برای نخستین بار مطلبی در آن منتشر می‌کنند، باید از سوی یک مولف تثبیت شده، تایید شوند. دانشگاه کرنل بیش از ۲۰ سال میزبان این سازمان بود که اکنون به یک موسسه ناسودآور مستقل تبدیل شده تا برای پرداختن به مسائلی مانند چالش هوش مصنوعی سرمایه بیشتری جمع آوری کند.
 
«توماس دیتریش» مدیر بخش علوم رایانشی ArXiv در پستی نوشت اگر یک مقاله ارائه شده حاوی شواهد غیرقابل انکاری باشد که مولفان نتایج تولید شده توسط مدل‌های بزرگ زبانی را بررسی نکرده‌اند، این بدان معناست که ما نمی‌توانیم به هیچ چیز در مقاله اعتماد کنیم. اگر چنین شواهدی یافت شود، مولفان تحقیق با ممنوعیتی یک ساله از سوی پلتفرم رو‌به‌رو می‌شوند و پس از آن مقالاتی که به این مخزن ارائه می‌کنند باید توسط یک مرجع معتبر دارای داوری همتا تایید شده باشد.
 
در اینجا وجود شواهد غیرقابل انکار به معنای ممنوعیت مستقیم استفاده از هوش مصنوعی در تحقیقات نیست بلکه نکته اصلی آن است که مولفان مسئولیت کامل محتوا را بدون در نظر گرفتن آنکه چگونه تولید شده باشد، تقبل کنند؛ بنابراین اگر محققان لحنی نامناسب، محتوای کپی‌شده، محتوای جانبدارانه، خطاها، اشتباهات، ارجاعات نادرست یا محتوای گمراه‌کننده را به طور مستقیم از یک سیستم هوش مصنوعی کپی پیست کنند، همچنان باید مسئولیت آن را برعهده بگیرند.
 
به گفته دیتریش این قانون هیچ فرصت دومی به فرد خاطی نمی‌دهد، اما بازبین‌ها باید چالش را مشخص و مدیران بخش‌ها نیز باید شواهد را قبل از وضع جریمه تایید کنند. مولفان می‌توانند خواستار تجدید نظر درباره این تصمیم شوند.
newsQrCode
برچسب ها: هوش مصنوعی
ارسال نظرات در انتظار بررسی: ۰ انتشار یافته: ۰

نیازمندی ها