پژوهش های جعلی و مقالات فله ای مورد هدف قرار گرفتند

بهروز فیض
توسط:
0

 ابتکار جدیدی از سوی نهادهای ناظر پشت پروژه Retraction Watch (نظارت بر پس‌گرفتن مقالات) در حال هدف قرار دادن پژوهش‌های پزشکی ناقص یا جعلی است — آن هم با بودجه‌ای نزدیک به یک میلیون دلار.



مرکز صداقت علمی (The Center for Scientific Integrity) به‌تازگی پروژه‌ای دو ساله با نام پروژه شواهد پزشکی راه‌اندازی کرده است. هدف این پروژه شناسایی پژوهش‌های پزشکی منتشرشده‌ای است که تأثیر منفی بر دستورالعمل‌های سلامت دارند — و اطمینان از اینکه عموم مردم واقعاً از آن مطلع می‌شوند.

با بهره‌گیری از کمک‌هزینه‌ای ۹۰۰ هزار دلاری از سوی Open Philanthropy و تیمی متشکل از حداکثر پنج پژوهشگر، این پروژه از ابزارهای متاعلم جنایی (forensic metascience) برای بررسی مقالات علمی استفاده خواهد کرد و یافته‌های خود را از طریق وب‌سایت Retraction Watch، مرجع اصلی نظارت بر پژوهش‌های علمی، منتشر خواهد کرد.

ایوان اورانسکی، مدیر اجرایی مرکز و یکی از بنیان‌گذاران Retraction Watch، در بیانیه‌ای درباره این کمک‌هزینه گفت:
«ما در ابتدا مرکز صداقت علمی را برای میزبانی از Retraction Watch راه‌اندازی کردیم، اما همیشه امیدوار بودیم بتوانیم در زمینه پاسخگویی پژوهشی گام‌های بیشتری برداریم. پروژه شواهد پزشکی به ما این امکان را می‌دهد که تحلیل‌های انتقادی را پشتیبانی کرده و یافته‌ها را منتشر کنیم.»

بر اساس گزارش Nature، این مقالات ناقص یا جعلی مشکل‌ساز هستند چون می‌توانند نتایج تحلیل‌های فراگیر (meta-analysis) را منحرف کنند — بررسی‌هایی که با ترکیب نتایج چندین مطالعه به نتایج آماری قوی‌تری می‌رسند. حتی اگر یکی‌دو مطالعه نادرست وارد یک متاآنالیز شوند، می‌توانند بر سیاست‌های سلامت تأثیر بگذارند.

برای مثال، در سال ۲۰۰۹، یک دستورالعمل اروپایی توصیه کرد که در جراحی‌های غیرقلبی از بتابلوکرها استفاده شود — توصیه‌ای بر پایه پژوهش‌هایی از اوایل دهه ۲۰۰۰ که بعدها مورد تردید قرار گرفتند. سال‌ها بعد، یک بررسی مستقل نشان داد که این توصیه شاید باعث مرگ سالانه ۱۰ هزار نفر در بریتانیا شده باشد.

رهبری این پروژه را جیمز هیترز، مشاور در زمینه صداقت علمی، بر عهده دارد. تیم او برنامه دارد ابزارهای نرم‌افزاری بسازد، به سرنخ‌هایی از افشاگران ناشناس پیگیری کند، و به داوران علمی برای بازبینی یافته‌ها دستمزد بدهد. آن‌ها هدف دارند هر سال حداقل ۱۰ متاآنالیز معیوب را شناسایی کنند.

تیم پروژه زمان‌بندی دقیقی را انتخاب کرده است. همان‌طور که Gizmodo پیش‌تر گزارش داده بود، تولیدات علمی جعلی با استفاده از هوش مصنوعی در حال سیل‌زدن فضای آکادمیک دیجیتال هستند — از گزارش‌های همایش‌ها گرفته تا مجلات علمی داوری‌شده. مطالعه‌ای که در بررسی اطلاعات نادرست مدرسه کندی هاروارد منتشر شد، نشان داد که دو سوم مقالات نمونه‌برداری‌شده از Google Scholar نشانه‌هایی از محتوای تولیدشده توسط GPT را داشتند — حتی در نشریات علمی معتبر. حدود ۱۴.۵٪ از این مقالات جعلی، متمرکز بر موضوعات سلامت بودند.

این موضوع نگران‌کننده است، چون Google Scholar بین مقالات داوری‌شده، پیش‌چاپ‌ها، مقالات دانشجویی و کارهای کم‌اعتبار دیگر تمایز قائل نمی‌شود. و وقتی این‌گونه محتوای جانبی وارد متاآنالیزها می‌شوند یا توسط پزشکان نقل می‌شوند، آثارشان به‌سختی قابل تفکیک خواهد بود. یکی از پژوهشگران به Gizmodo گفت:
«اگر نتوانیم به اصالت پژوهشی که می‌خوانیم اعتماد کنیم، تصمیمات خود را بر پایه اطلاعات نادرست خواهیم گرفت.»

ما پیش‌تر دیده‌ایم که چطور محتوای بی‌پایه می‌تواند از فیلترها عبور کند. در سال ۲۰۲۱، ناشر Springer Nature بیش از ۴۰ مقاله را از Arabian Journal of Geosciences پس گرفت — مقالاتی آن‌قدر بی‌ربط که شبیه جملات ساختگی تولیدشده توسط هوش مصنوعی بودند. فقط سال گذشته، انتشارات Frontiers مجبور شد مقاله‌ای را که شامل تصاویر غیرممکن و ساختگی از اندام تناسلی موش‌ها بود، حذف کند.

ما وارد دوران فسیل‌های دیجیتال شده‌ایم؛ دورانی که مدل‌های هوش مصنوعی آموزش‌دیده با داده‌های اینترنتی، شروع به حفظ و تکرار عبارات بی‌معنا می‌کنند؛ انگار که اصطلاحات علمی واقعی هستند. برای مثال، اوایل امسال گروهی از پژوهشگران مجموعه‌ای از واژه‌های بی‌معنا از مقاله‌ای زیست‌شناسی متعلق به ۱۹۵۹ را در خروجی مدل‌هایی چون GPT-4o پیدا کردند.

در چنین شرایطی، هدف پروژه شواهد پزشکی بیشتر به اقدامات اورژانسی شباهت دارد تا پاکسازی. این تیم با انبوهی از اطلاعات معیوب که به‌سادگی دیده نمی‌شوند روبروست — اطلاعاتی که بسیاری از آن‌ها در صورت برداشت سطحی می‌توانند پیامدهای جدی برای سلامت عمومی داشته باشند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)