به گزارش جام جم آنلاین به نقل از تک کرانچ، این پایگاه ArXiv نام دارد. هرچند تحقیقاتی که روی وب سایت پست میشود توسط همکاران بررسی شدهاند، اما مخزن ArXiv به یکی از روشهای اصلی گردش تحقیقات در حوزههایی مانند علوم رایانشی و ریاضی و خود وب سایت نیز مخزنی از دادهها درباره ترندهای پژوهشهای علمی تبدیل شده است.
این وب سایت هم اکنون گامهایی برای مقابله با تعداد روز افزون تحقیقات بی کیفیتی که با هوش مصنوعی انجام شدهاند، برداشته و به عنوان مثال کاربرانی که برای نخستین بار مطلبی در آن منتشر میکنند، باید از سوی یک مولف تثبیت شده، تایید شوند. دانشگاه کرنل بیش از ۲۰ سال میزبان این سازمان بود که اکنون به یک موسسه ناسودآور مستقل تبدیل شده تا برای پرداختن به مسائلی مانند چالش هوش مصنوعی سرمایه بیشتری جمع آوری کند.
«توماس دیتریش» مدیر بخش علوم رایانشی ArXiv در پستی نوشت اگر یک مقاله ارائه شده حاوی شواهد غیرقابل انکاری باشد که مولفان نتایج تولید شده توسط مدلهای بزرگ زبانی را بررسی نکردهاند، این بدان معناست که ما نمیتوانیم به هیچ چیز در مقاله اعتماد کنیم. اگر چنین شواهدی یافت شود، مولفان تحقیق با ممنوعیتی یک ساله از سوی پلتفرم روبهرو میشوند و پس از آن مقالاتی که به این مخزن ارائه میکنند باید توسط یک مرجع معتبر دارای داوری همتا تایید شده باشد.
در اینجا وجود شواهد غیرقابل انکار به معنای ممنوعیت مستقیم استفاده از هوش مصنوعی در تحقیقات نیست بلکه نکته اصلی آن است که مولفان مسئولیت کامل محتوا را بدون در نظر گرفتن آنکه چگونه تولید شده باشد، تقبل کنند؛ بنابراین اگر محققان لحنی نامناسب، محتوای کپیشده، محتوای جانبدارانه، خطاها، اشتباهات، ارجاعات نادرست یا محتوای گمراهکننده را به طور مستقیم از یک سیستم هوش مصنوعی کپی پیست کنند، همچنان باید مسئولیت آن را برعهده بگیرند.
به گفته دیتریش این قانون هیچ فرصت دومی به فرد خاطی نمیدهد، اما بازبینها باید چالش را مشخص و مدیران بخشها نیز باید شواهد را قبل از وضع جریمه تایید کنند. مولفان میتوانند خواستار تجدید نظر درباره این تصمیم شوند.