ارزیابی دستورالعمل بنیاد ملی علمی ایران در استفاده از ابزارهای هوش مصنوعی

تحلیل دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش‌های علمی در ایران؛ مقایسه با استانداردهای بین‌المللی

 

📝 در تاریخ ۲۹ شهریور ۱۴۰۴، «بنیاد ملی علم ایران (INSF)» نخستین نسخه از «دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش‌های علمی» را به‌ تصویب رساند. این سند در قالب یک فایل PDF در وب‌سایت رسمی بنیاد قرار گرفت و قرار است هر شش ماه یک‌بار مورد بازبینی قرار گیرد.

🌐 https://insf.org/fa/news/1216

 

▪️ هدف اصلی از تدوین این دستورالعمل، تنظیم و هدایت استفاده از ابزارهای هوش مصنوعی در تمامی مراحل چرخه پژوهش — از طراحی پروپوزال و گردآوری داده تا نگارش و داوری علمی — با حفظ اصول اخلاقی و استانداردهای علمی اعلام شده است.

 

▪️ انتشار این سند را می‌توان نقطه عطفی در مواجهه نظام علمی کشور با فناوری‌های نوین دانست؛ با این حال، بررسی دقیق‌تر آن در مقایسه با چارچوب‌ها و دستورالعمل‌های بین‌المللی (مانند استانداردهای NIST، راهنمای FUTURE-AI، چارچوب‌های NSF، و مقررات اتحادیه اروپا) نشان می‌دهد که در کنار نقاط قوت اولیه، نقایص قابل ذکری نیز در این دستورالعمل دیده می‌شود که می‌تواند بر کارآمدی و هم‌راستایی آن با نظام پژوهشی جهانی تأثیرگذار باشد.

 

در ادامه، مقایسه‌ای از این دستورالعمل با نمونه‌های بین‌المللی ارائه می‌شود 👇

 

📝  خلاصه‌ای از محتوای اصلی دستورالعمل INSF

▫️ تأکید بر شفافیت در اعلام نوع، نسخه و نقش ابزارهای هوش مصنوعی در فرآیند پژوهش.

▫️ الزام به ذکر استفاده از AI در پروپوزال و گزارش نهایی.

▫️ تأکید بر مسئولیت انسانی پژوهشگر و ممنوعیت واگذاری قضاوت علمی به ماشین.

▫️ پیش‌بینی نقش داوران در بررسی استفاده از AI در طرح‌ها.

▫️ تعیین موارد منع، از جمله تولید داده یا یافته بدون بازبینی انسانی، تحلیل آماری بدون تسلط بر روش‌ها، و نقض حریم خصوصی.

▫️ ارائه مثال‌هایی از ارجاع به ابزارهایی مانند ChatGPT و Midjourney.

▫️ برنامه‌ریزی برای بازبینی هر شش ماه یک بار.

 

✅ نقاط قوت دستورالعمل

▫️ تعریف صریح اصول شفافیت و مسئولیت‌پذیری.

▫️ تفکیک نسبتاً روشن بین استفاده کمکی و تولید محتوای اصلی.

▫️ درنظر گرفتن نقش داوران در بررسی استفاده از هوش مصنوعی.

▫️ ارائه مثال‌های عملی برای ارجاع‌دهی به ابزارهای هوش مصنوعی.

 

این موارد نشان می‌دهد که سند مذکور از لحاظ مفاهیم کلی، گامی مثبت در جهت سامان‌دهی استفاده علمی از هوش مصنوعی برداشته است.

 

❌ نقاط ضعف و خلأها در مقایسه با استانداردهای بین‌المللی

 

۱. نبود چک‌لیست‌های ساختاریافته و عملیاتی

برخلاف چارچوب‌هایی مانند REFORMS یا CONSORT-AI که شامل پرسش‌ها و مراحل مشخص هستند، سند ایران فقط دستورهای کلی ارائه داده و سازوکار مشخصی برای نحوه «اعتبارسنجی خروجی‌های هوش مصنوعی» ندارد. این موضوع باعث می‌شود اجرای آن سلیقه‌ای و غیریکپارچه باشد.

 

۲. ضعف در پیش‌بینی سناریوهای سوءاستفاده و ابزارهای کنترل

سند به ممنوعیت‌هایی اشاره می‌کند، اما هیچ سازوکار اجرایی، تنبیهی یا گزارش‌دهی برای کشف و مقابله با تقلب یا سوءاستفاده پیش‌بینی نشده است. این در حالی است که در سیاست‌های NSF و NIST، بخش مفصلی به ریسک‌های سوءاستفاده اختصاص یافته است.

 

۳. پوشش سطحی مسائل حریم خصوصی و مالکیت فکری

اشاره‌ای کلی به عدم استفاده از داده حساس شده، اما تعریفی از داده حساس، نحوه ناشناس‌سازی یا الزامات قانونی مرتبط ارائه نشده است. همچنین، هیچ بحثی در مورد حقوق مالکیت فکری هنگام استفاده از مدل‌های خارجی وجود ندارد؛ موضوعی که در چارچوب‌های اروپا و NIST کاملاً تفصیلی بیان می‌شود.

 

۴. نبود تقسیم‌بندی میان رشته‌ها و سطح‌بندی ریسک

سند برای همه رشته‌ها یکسان است، در حالی که ریسک استفاده از AI در پزشکی یا علوم انسانی بسیار متفاوت است. در راهنماهای بین‌المللی، برای حوزه‌های پرریسک مانند سلامت، دستورالعمل‌های جداگانه ارائه می‌شود.

 

۵. فقدان نهاد نظارتی مستقل

نظارت صرفاً به پژوهشگر و داور واگذار شده است و هیچ کمیته یا هیئت نظارتی مشخصی تعریف نشده. استانداردهای NIST و OECD معمولاً نهاد مستقلی را برای نظارت و رسیدگی به تخلفات پیش‌بینی می‌کنند.

 

۶. ساختار کند بازبینی در برابر تحولات سریع فناوری

بازبینی شش‌ماهه برای حوزه‌ای که مدل‌های جدید تقریباً ماهانه منتشر می‌شوند ناکافی است. بسیاری از نهادهای بین‌المللی از «living documents» یا اصلاحیه‌های سریع استفاده می‌کنند.

 

۷. فقدان برنامه آموزشی و ظرفیت‌سازی

در متن هیچ اشاره‌ای به آموزش پژوهشگران، کارگاه‌ها یا منابع راهنما نشده است. این در حالی است که FUTURE-AI آموزش را یکی از ارکان اصلی اجرای مؤثر دستورالعمل می‌داند.

 

۸. نبود ارجاع صریح به چارچوب‌های جهانی

در مقدمه تنها به الهام از تجربه اروپا اشاره شده، اما هیچ استاندارد یا سند مشخصی (NIST، EU AI Act، OECD) ارجاع نشده است؛ این موضوع باعث می‌شود قابلیت هم‌پذیری بین‌المللی سند کاهش یابد.

 

۹. نبود مشوق برای استفاده صحیح و نوآورانه

رویکرد سند عمدتاً کنترلی است و هیچ مشوقی برای پژوهشگرانی که به شکل شفاف و اصولی از AI استفاده می‌کنند در نظر گرفته نشده است. در برخی کشورها، چنین استفاده‌هایی امتیاز مثبت تلقی می‌شود.

 

۱۰. نپرداختن به مرحله پس از انتشار

هیچ سازوکاری برای نظارت و بازبینی استفاده از AI پس از انتشار مقاله یا گزارش وجود ندارد، در حالی که این مرحله در استانداردهای بین‌المللی بخش مهمی از نظارت به شمار می‌رود.

 

✍️ جمع‌بندی

دستورالعمل INSF را می‌توان گامی مهم اما اولیه در جهت تنظیم استفاده پژوهشی از هوش مصنوعی در ایران دانست. این سند از نظر اصول کلی (شفافیت، اخلاق، مسئولیت انسانی) همسو با روندهای جهانی است، اما از نظر ساختار اجرایی، نظارتی، حقوقی و بین‌المللی هنوز فاصله قابل توجهی با چارچوب‌های پیشرو دارد.

اگر قرار باشد این دستورالعمل به ابزاری کارآمد برای ارتقای کیفیت پژوهش و هم‌گرایی علمی بین‌المللی تبدیل شود، لازم است در نسخه‌های بعدی مواردی چون چک‌لیست‌های دقیق، آموزش، نهاد نظارتی مستقل، تطبیق با استانداردهای NIST/EU، و پوشش حوزه‌های پرریسک به شکل جدی گنجانده شود.

 

 

📝 انتشار مطالب وبلاگ بدون ذکر منبع آن برخلاف رضایت مولفان می‌باشد

🏷 لینک کوتاه این مطلب: https://blog.impactfactor.ir/?p=128

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *